JP2005332061A - Operation unit, operation input terminal, operation method, and operation program - Google Patents
Operation unit, operation input terminal, operation method, and operation program Download PDFInfo
- Publication number
- JP2005332061A JP2005332061A JP2004147925A JP2004147925A JP2005332061A JP 2005332061 A JP2005332061 A JP 2005332061A JP 2004147925 A JP2004147925 A JP 2004147925A JP 2004147925 A JP2004147925 A JP 2004147925A JP 2005332061 A JP2005332061 A JP 2005332061A
- Authority
- JP
- Japan
- Prior art keywords
- movement
- image
- camera device
- feature point
- data structure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Input (AREA)
- Image Processing (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、操作装置、操作入力端末、操作方法、および、操作プログラムに関する。 The present invention relates to an operation device, an operation input terminal, an operation method, and an operation program.
従来、携帯端末などの操作は、ボタンを押すことによって行われることが主となっている。さらに、端末の大きさによる制約から、ボタンの数はキーボードと比べ大変少なく、ボタン自体も小さくなっている。このため、利用者は、携帯端末を操作するために、ボタン押し動作を繰り返さなければならず、とても不便である。 Conventionally, the operation of a portable terminal or the like is mainly performed by pressing a button. In addition, due to restrictions on the size of the terminal, the number of buttons is very small compared to the keyboard, and the buttons themselves are also small. For this reason, in order to operate a portable terminal, a user must repeat a button press operation, which is very inconvenient.
このボタン押し動作を軽減する技術として、本願出願人による「携帯電話機用入力方法、および携帯電話機」がある(特許文献1)。これは、携帯端末の操作の際に、利用者の唇の動きなどから発話単語を認識することで、文章入力や端末操作の際のユーザのボタン押し動作を軽減する、というものである。この技術を用いれば、携帯端末の操作時のボタン押し操作を減らすことができる。
しかしながら、特許文献1などの従来の技術は、ボタン押しの操作や、口を動かしての操作など、操作が直感的ではなく、わかりにくいという問題があった。例えば、ボタン押しの操作では、1つのボタンに複数の操作が割り当てられたりしていたりするので、ボタンと操作との対応を、ユーザは正確に把握することが必要となり、操作性に難点があった。また、口を動かしての操作も同様に、ユーザは、口の動かし方と、その動かし方に対応付けられた操作を把握する負担を強いられる。 However, conventional techniques such as Patent Document 1 have a problem that operations such as a button pressing operation and a mouth moving operation are not intuitive and difficult to understand. For example, when a button is pressed, a plurality of operations are assigned to one button. Therefore, the user needs to accurately grasp the correspondence between the button and the operation, and there is a difficulty in operability. It was. Similarly, when the user moves the mouth, the user is forced to bear a burden of grasping how to move the mouth and the operation associated with the moving method.
そこで、本発明は、前記した問題を解決し、直感的でわかりやすい操作入力が可能な操作装置を提供することを、主な目的とする。 SUMMARY OF THE INVENTION Accordingly, it is a primary object of the present invention to provide an operating device that solves the above-described problems and enables intuitive and easy-to-understand operation input.
前記課題を解決するため、請求項1に記載の操作装置は、カメラ装置の位置の移動を元に操作を入力させる操作装置であって、
前記操作装置は、前記カメラ装置によって撮影された画像を取得する撮影手段と、前記画像をもとにカメラ装置の位置の移動を検出する操作検出手段と、前記検出された位置の移動に対応づけられている動作を出力する動作出力手段と、を含めて構成され、
前記操作検出手段は、前記画像が時系列に拡大されている場合に、前記カメラ装置が撮影対象に接近する方向へ移動する前移動として検出し、前記画像が時系列に縮小されている場合に、前記カメラ装置が撮影対象から遠ざかる方向へ移動する後移動として検出し、
前記動作出力手段は、前記前移動に対応する動作または前記後移動に対応づけられている動作のうち、少なくとも1つの動作を出力することを特徴とする。
In order to solve the above problem, the operation device according to claim 1 is an operation device that inputs an operation based on a movement of a position of a camera device,
The operating device is associated with a photographing unit that acquires an image photographed by the camera device, an operation detecting unit that detects a movement of the position of the camera device based on the image, and a movement of the detected position. Operation output means for outputting the operation being performed, and
When the image is enlarged in time series, the operation detection means detects the camera device as a pre-movement that moves in a direction approaching the shooting target, and the image is reduced in time series. , Detected as a movement after the camera device moves away from the object to be photographed,
The operation output means outputs at least one of an operation corresponding to the forward movement and an operation associated with the backward movement.
これにより、ユーザは、カメラ装置の位置の移動という直感的でわかりやすい操作入力方法によって、効率的に操作を入力することができる。 Thereby, the user can efficiently input an operation by an intuitive and easy-to-understand operation input method of moving the position of the camera device.
請求項2に記載の操作装置は、請求項1に記載の操作装置であって、前記操作装置は、階層化されたデータ構造へのアクセスを行うものとし、
前記前移動に対応づけられている動作は、前記データ構造を下位の階層へアクセスする動作とし、
前記後移動に対応づけられている動作は、前記データ構造を上位の階層へアクセスする動作とすることを特徴とする。
The operation device according to claim 2 is the operation device according to claim 1, wherein the operation device accesses a hierarchical data structure,
The operation associated with the previous movement is an operation of accessing the data structure to a lower hierarchy,
The operation associated with the post-movement is an operation for accessing the data structure to a higher hierarchy.
これにより、ユーザは、Webページなどの階層構造をもつデータに対して、あたかも積まれた書類であるかのようにアクセスすることができるので、アクセス操作を直感的に行うことができる。 As a result, the user can access data having a hierarchical structure such as a Web page as if it were a stacked document, so that an access operation can be performed intuitively.
請求項3に記載の操作装置は、請求項1または請求項2に記載の操作装置であって、前記操作検出手段は、前記画像から抽出される特徴点の位置の移動情報をもとに、前記画像の拡大または縮小を検出することを特徴とする。 The operation device according to claim 3 is the operation device according to claim 1 or 2, wherein the operation detection means is based on movement information of the position of the feature point extracted from the image. An enlargement or reduction of the image is detected.
これにより、カメラ装置の撮影画像からカメラ装置の位置の移動を取得することにより、カメラ装置を有する携帯電話などの、既存の資産を有効に活用することができる。 Thereby, by acquiring the movement of the position of the camera device from the captured image of the camera device, it is possible to effectively use existing assets such as a mobile phone having the camera device.
請求項4に記載の操作装置は、請求項3に記載の操作装置であって、前記特徴点は、前記画像から抽出される全ての特徴点の集合から、所定の選択窓の範囲内に位置する特徴点の集合を部分抽出して構成されることを特徴とする。 The operation device according to claim 4 is the operation device according to claim 3, wherein the feature points are located within a predetermined selection window from a set of all feature points extracted from the image. It is characterized in that it is constructed by partially extracting a set of feature points.
これにより、選択窓によって信頼度の高い特徴点が選択されて、その選択された特徴点をもとに、画像処理が行われるので、画像処理の精度が向上する。 Thereby, feature points with high reliability are selected by the selection window, and image processing is performed based on the selected feature points, so that the accuracy of image processing is improved.
請求項5に記載の操作装置は、請求項1ないし請求項4のいずれか1項に記載の操作装置であって、前記操作検出手段は、前記画像が時系列に平行移動されている場合に、平行移動されている方向を検出し、
前記動作出力手段は、前記平行移動されている方向へカーソルを移動させる動作を出力することを特徴とする。
The operation device according to claim 5 is the operation device according to any one of claims 1 to 4, wherein the operation detection means is used when the image is translated in time series. Detect the direction of translation,
The operation output means outputs an operation of moving a cursor in the parallel movement direction.
これにより、ユーザは、カメラ装置を3次元的に動かすことで、操作を直感的に行うことができる。 Accordingly, the user can intuitively perform the operation by moving the camera device three-dimensionally.
請求項6に記載の操作入力端末は、カメラ装置の位置の移動を元に操作を入力させる操作入力端末であって、
前記操作入力端末は、前記カメラ装置によって撮影された画像を取得する撮影手段と、前記画像をもとに検出されたカメラ装置の位置の移動に対応づけられている動作を出力する動作出力手段と、を含めて構成され、
前記カメラ装置の位置の移動は、前記カメラ装置が撮影対象に接近する方向へ移動する前移動、または、前記カメラ装置が撮影対象から遠ざかる方向へ移動する後移動のうち、少なくとも1つから構成され、
前記動作出力手段は、前記前移動に対応する動作または前記後移動に対応づけられている動作のうち、少なくとも1つの動作を出力することを特徴とする。
The operation input terminal according to claim 6 is an operation input terminal that inputs an operation based on the movement of the position of the camera device,
The operation input terminal includes a photographing unit that acquires an image photographed by the camera device, and an operation output unit that outputs an operation associated with the movement of the position of the camera device detected based on the image. , Including,
The movement of the position of the camera device includes at least one of a pre-movement in which the camera device moves in a direction approaching the object to be imaged and a post-movement in which the camera device moves in a direction away from the object to be imaged. ,
The operation output means outputs at least one of an operation corresponding to the forward movement and an operation associated with the backward movement.
これにより、ユーザは、カメラ装置の位置の移動という直感的でわかりやすい操作入力方法によって、効率的に操作を入力することができる。 Thereby, the user can efficiently input an operation by an intuitive and easy-to-understand operation input method of moving the position of the camera device.
請求項7に記載の操作入力端末は、請求項6に記載の操作入力端末であって、前記操作入力端末は、階層化されたデータ構造へのアクセスを行うものとし、
前記前移動に対応づけられている動作は、前記データ構造を下位の階層へアクセスする動作とし、
前記後移動に対応づけられている動作は、前記データ構造を上位の階層へアクセスする動作とすることを特徴とする。
The operation input terminal according to claim 7 is the operation input terminal according to claim 6, wherein the operation input terminal performs access to a hierarchical data structure,
The operation associated with the previous movement is an operation of accessing the data structure to a lower hierarchy,
The operation associated with the post-movement is an operation for accessing the data structure to a higher hierarchy.
これにより、ユーザは、Webページなどの階層構造をもつデータに対して、あたかも積まれた書類であるかのようにアクセスすることができるので、アクセス操作を直感的に行うことができる。 As a result, the user can access data having a hierarchical structure such as a Web page as if it were a stacked document, so that an access operation can be performed intuitively.
請求項8に記載の操作方法は、カメラ装置の位置の移動を元に操作を入力させる操作方法であって、
コンピュータが、前記カメラ装置によって撮影された画像を取得する撮影手順と、前記画像をもとにカメラ装置の位置の移動を検出する操作検出手順と、前記検出された位置の移動に対応づけられている動作を出力する動作出力手順と、を実行し、
前記操作検出手順は、前記画像が時系列に拡大されている場合に、前記カメラ装置が撮影対象に接近する方向へ移動する前移動として検出し、前記画像が時系列に縮小されている場合に、前記カメラ装置が撮影対象から遠ざかる方向へ移動する後移動として検出し、
前記動作出力手順は、前記前移動に対応する動作または前記後移動に対応づけられている動作のうち、少なくとも1つの動作を出力することを特徴とする。
The operation method according to claim 8 is an operation method for inputting an operation based on the movement of the position of the camera device,
The computer is associated with a shooting procedure for acquiring an image shot by the camera device, an operation detection procedure for detecting a movement of the position of the camera device based on the image, and a movement of the detected position. And an operation output procedure for outputting the operation being performed, and
The operation detection procedure detects when the camera device is moved in a direction approaching the object to be photographed when the image is enlarged in time series, and when the image is reduced in time series. , Detected as a movement after the camera device moves away from the object to be photographed,
The operation output procedure outputs at least one of the operations corresponding to the forward movement or the movements associated with the backward movement.
これにより、ユーザは、カメラ装置の位置の移動という直感的でわかりやすい操作入力方法によって、効率的に操作を入力することができる。 Thereby, the user can efficiently input an operation by an intuitive and easy-to-understand operation input method of moving the position of the camera device.
請求項9に記載の操作方法は、請求項8に記載の操作方法であって、前記コンピュータは、階層化されたデータ構造へのアクセスを行うものとし、
前記前移動に対応づけられている動作は、前記データ構造を下位の階層へアクセスする動作とし、
前記後移動に対応づけられている動作は、前記データ構造を上位の階層へアクセスする動作とすることを特徴とする。
The operation method according to claim 9 is the operation method according to claim 8, wherein the computer accesses a hierarchical data structure,
The operation associated with the previous movement is an operation of accessing the data structure to a lower hierarchy,
The operation associated with the post-movement is an operation for accessing the data structure to a higher hierarchy.
これにより、ユーザは、Webページなどの階層構造をもつデータに対して、あたかも積まれた書類であるかのようにアクセスすることができるので、アクセス操作を直感的に行うことができる。 As a result, the user can access data having a hierarchical structure such as a Web page as if it were a stacked document, so that an access operation can be performed intuitively.
請求項10に記載の操作プログラムは、請求項8または請求項9に記載の操作方法をコンピュータに実行させることを特徴とする。 An operation program according to a tenth aspect causes a computer to execute the operation method according to the eighth or ninth aspect.
これにより、ユーザは、カメラ装置の位置の移動という直感的でわかりやすい操作入力方法によって、効率的に操作を入力することができる。 Thereby, the user can efficiently input an operation by an intuitive and easy-to-understand operation input method of moving the position of the camera device.
本発明は、カメラを前後に動かすことで、選択ボタンやクリアボタンなどを押さなければならなかった操作を、直感的に行うことを特徴とする。この効果として、Webページのリンクを辿っていく操作を行う際に、ユーザはカメラ装置を前後に動かす操作を行うことになり、ユーザはWebページがあたかも立体的に存在しているように閲覧することが可能となる。 The present invention is characterized by intuitively performing an operation that had to press a selection button, a clear button, or the like by moving the camera back and forth. As an effect, when performing an operation of following the link of the Web page, the user performs an operation of moving the camera device back and forth, and the user views the Web page as if it existed in three dimensions. It becomes possible.
また、本発明では、画像から抽出される特徴点のトラッキングの際に、特徴点の選択窓を適用していることにより、トラッキングにかかる計算負荷を減らすことが可能になる。 In the present invention, the feature point selection window is applied when tracking the feature points extracted from the image, thereby reducing the calculation load for tracking.
さらに、ズーム検出のための参照フレーム数を各フレーム間で検出される特徴点の移動距離により変化させることにより、ズーム検出精度を向上することが可能になる。 Furthermore, the zoom detection accuracy can be improved by changing the number of reference frames for zoom detection according to the movement distance of the feature point detected between the frames.
以下に、本発明が適用される操作装置の一実施形態について、図面を参照して詳細に説明する。まず、本実施形態の操作装置の構成について、図1、図2、図5、図6、図7を参照して説明する。 Hereinafter, an embodiment of an operating device to which the present invention is applied will be described in detail with reference to the drawings. First, the configuration of the operating device according to the present embodiment will be described with reference to FIGS. 1, 2, 5, 6, and 7.
図7に示されるように本実施形態の操作装置9は、例えばユーザによって把持され、操作装置9のカメラ装置10が、画像を撮影する。ユーザは、カメラ装置10を3次元的に動かして、カメラ装置10の位置を移動させる。そして、操作装置9は、撮影された画像から、カメラ装置10の移動を検出する。
As illustrated in FIG. 7, the operation device 9 according to the present embodiment is held by a user, for example, and the
操作装置9に撮影画像を提供するカメラ装置10の移動方向について、図5を参照して説明する。図5は、カメラ装置10が、3次元の空間に配置された図である。3次元の空間は、X軸、Y軸、Z軸によって表現される。ここで、カメラ装置10は、撮影するためのレンズがZ軸の方向を向いているものとする。
The moving direction of the
この場合、カメラ装置10を前後に移動することは、カメラ装置10をZ軸の方向に移動することを示す。さらに、カメラ装置10が前に移動することは、カメラ装置10が撮影対象に接近する旨を示し、カメラ装置10が後に移動することは、カメラ装置10が撮影対象から遠ざかる旨を示す。そして、カメラ装置10が左右に移動することは、カメラ装置10がX軸の方向に移動することを示し、カメラ装置10が上下に移動することは、カメラ装置10がY軸の方向に移動することを示す。
In this case, moving the
ここで、ユーザがカメラ装置10を把持する場合などでは、移動範囲が限定されることもある。例えば、ユーザが前移動による決定動作を入力させたい場合に、既にユーザの手が伸びきってしまっている場合や、カメラ装置10の移動先に障害物が存在する場合には、カメラ装置10の物理的な移動に制約が生じる。
そこで、カメラ装置10は、移動による操作の入力を受け付けるか否かをユーザに指定させる手段として、ボタンなどによる操作有効期間指定手段を設けてもよい。
これにより、カメラ装置10がこれ以上前に移動できない場合には、ユーザは、操作有効期間指定手段によって操作を無効にして、カメラ装置10を一旦後に下げ、再び操作有効期間指定手段によって、操作を有効にしてからカメラ装置10を前に移動させることが可能となる。よって、カメラの移動範囲が有限である場合においても、操作の入力回数に制約を生じさせることを、回避できる。
Here, when the user holds the
Therefore, the
As a result, when the
なお、以下の説明では、カメラ装置10が前に移動することを、「ズームインする」と定義し、カメラ装置10が後に移動することを、「ズームアウトする」と定義する。
ここで、ズームを変更する手段として、レンズのピントをハードウェアで調整するアナログズームや、撮影された画像の縮尺を画像処理によって変更するデジタルズームが、知られている。これらのアナログズームやデジタルズームは、それらの機能が対応付けられているズームボタンの押下などによって、ユーザに操作させるような構成が一般的であり、ズームボタンの押下は、カメラ装置10そのものの移動を伴わないことも、考えられる。
そこで、カメラ装置10は、装置本体の物理的な移動と、ズームボタンによるズーム機能の起動とを明確に区別するために、例えば、前記の操作有効期間指定手段を、ズームボタンに連動させる構成としてもよい。つまり、カメラ装置10は、ズームボタンが押されている間は、操作を無効とするための信号を、操作装置9に送信する画像に付加する。そして、操作装置9は、前記無効の信号を検出した場合には、画像処理によるズームの検出を行わないこととする。
これにより、装置本体の物理的な移動の検出を、より正確に実現することが可能となる。
In the following description, moving the
Here, as means for changing the zoom, there are known analog zoom for adjusting the focus of the lens by hardware, and digital zoom for changing the scale of the photographed image by image processing. These analog zooms and digital zooms generally have a configuration in which the user operates by pressing a zoom button associated with these functions, and pressing the zoom button does not move the
Therefore, in order to clearly distinguish the physical movement of the apparatus main body from the activation of the zoom function by the zoom button, the
This makes it possible to more accurately detect the physical movement of the apparatus main body.
次に、本発明が適用される操作装置9は、ユーザによるカメラ装置10の位置の移動を検出して、その移動方向に対応する動作を、操作の出力結果とすることを特徴とする。図6(A)は、提示するコンテンツの一例であるWebページ(P01〜P23)と、そのWebページにアクセスするためのカメラ装置10を用いたユーザ操作(左移動など)との対応を示す図である。
Next, the operation device 9 to which the present invention is applied is characterized in that the movement of the position of the
例えば、ユーザが現在閲覧しているトップページであるP01から、順にリンクをたどって、P22のページを表示するための操作について、説明する。まず、ユーザは、カメラ装置10を左に移動させて、カーソル(図示省略)を、P11のページへのリンク文字の上に移動する。次に、ユーザは、カメラ装置10を前に移動させて、カーソルで選択されているP11のページへのリンクを選択(決定)することにより、P01のページからP11のページへと、表示を切り替える。さらに、ユーザは、カメラ装置10を右に移動させて、カーソルを、P22のページへのリンク文字の上に移動する。そして、ユーザは、カメラ装置10を前に移動させて、カーソルで選択されているP22のページへのリンクを選択(決定)することにより、P11のページからP22のページへと、表示を切り替える。
For example, an operation for displaying a page P22 by following links in order from P01 which is the top page currently being browsed by the user will be described. First, the user moves the
図6(B)は、本発明が適用される操作装置9の効果を説明する図である。コンテンツであるWebページについて、上位の階層から順にP01、P11、P21、P31、P41となり、各階層の間は、リンクで接続されている。ユーザは、カメラ装置10を前後に移動させることにより、これらの階層構造を、上位から下位および下位から上位に、効率的にアクセスすることができる。これにより、ユーザは、Webページが、あたかも積まれた書類であるかのように、アクセスすることができるので、アクセス操作を直感的に行うことができる。
FIG. 6B is a diagram illustrating the effect of the operation device 9 to which the present invention is applied. The Web pages that are the contents are P01, P11, P21, P31, and P41 in order from the upper layer, and the layers are connected by links. The user can efficiently access these hierarchical structures from the upper level to the lower level and from the lower level to the upper level by moving the
図1に示す操作装置9は、操作の入力を受け付ける操作入力端末1と、入力された操作を解析する操作解析装置2と、を含めて構成される。操作装置9は、携帯電話やPDA(Personal Digital Assistance)などの携帯端末によって構成されてもよい。これにより、携帯端末の制約である操作ボタンの少なさをカバーして、多様な操作をユーザに入力させることができる。 The operation device 9 shown in FIG. 1 includes an operation input terminal 1 that receives an operation input and an operation analysis device 2 that analyzes the input operation. The operating device 9 may be configured by a mobile terminal such as a mobile phone or a PDA (Personal Digital Assistance). Accordingly, it is possible to allow the user to input various operations while covering the small number of operation buttons that are restrictions of the mobile terminal.
なお、操作装置9は、演算処理を行う際に用いられる記憶手段としてのメモリと、前記演算処理を行う演算処理装置とを少なくとも備えるコンピュータとして構成される。なお、メモリは、RAM(Random Access Memory)などにより構成される。演算処理は、CPU(Central Processing Unit)によって構成される演算処理装置が、メモリ上のプログラムを実行することで、実現される。 The operation device 9 is configured as a computer including at least a memory serving as a storage unit used when performing arithmetic processing and an arithmetic processing device that performs the arithmetic processing. The memory is constituted by a RAM (Random Access Memory) or the like. Arithmetic processing is realized by an arithmetic processing unit configured by a CPU (Central Processing Unit) executing a program on a memory.
操作装置9の撮影手段は、撮影して画像を作成するカメラ装置10と、カメラ装置10に撮影要求を送信し、画像を受信する画像取得部11と、を含めて構成される。
The photographing unit of the operation device 9 includes a
操作装置9の操作検出手段は、撮影された画像に含まれる特徴点に関する情報を記憶する特徴点情報記憶部20と、撮影された画像に含まれる特徴点を抽出する画像特徴点抽出部21と、撮影された画像が初期フレームとして設定した場合に特徴点選択用の窓を適用することで特徴点の選択を行う選択用窓適用部22と、撮影された画像のフレームから検出される特徴点に識別用のIDを付与する特徴点ID付与部23と、特徴点情報登録部24と、連続して撮影されたフレーム間で特徴点を追跡する特徴点トラッキング部25と、特徴点の追跡結果から撮影された画像のズーム操作を検出するズーム検出部26と、を含めて構成される。
The operation detection means of the operating device 9 includes a feature point
操作装置9の操作検出手段は、さらに、画像のフレーム数のカウント数を記憶するカウント記憶部30と、操作入力端末1のユーザを識別する情報を格納するユーザID情報記憶部31と、画像のフレーム数をカウントするフレームカウント部32と、画像の受信処理を開始してから、または、画像の受信処理の途中で初期化を行うことにより画像の受信処理を再開してから、最初に受信したフレームを初期フレームとして設定する初期フレーム設定部33と、を含めて構成される。
The operation detection means of the operation device 9 further includes a
操作装置9の動作出力手段は、入力された操作と、実行する動作との対応情報を記憶する出力設定記憶部40と、入力された操作から特定される動作を出力する情報出力部41と、動作を反映した結果を表示する表示装置42と、を含めて構成される。
The operation output means of the controller device 9 includes an output
画像取得部11は、カメラ装置10に画像撮影命令を送信し、ある既知の時間間隔にて画像を撮影させ、撮影された画像を受信する手段を有している。このとき、撮影の時間間隔としては、15分の1秒であったり、30分の1秒であってもよい。操作装置9にて撮影が可能な時間間隔であればよい。カメラ装置10は操作装置9と一体になっていてもよいし、またはケーブルなどで連結されている形状でもよい。または、カメラ装置10と無線通信するものとして、分離した状態でもよいものとする。
The image acquisition unit 11 includes means for transmitting an image capturing command to the
画像特徴点抽出部21は、カメラ装置10にて撮影された画像に含まれる特徴点を取得する手段を有する。このとき、画像から抽出する特徴量としては、輝度情報や色相情報、輪郭、頂点などの情報を取得し、利用してもよいものとする。また、このとき、単一の特徴だけを利用するだけでなく、複数の特徴を同時に利用してもよいものとする。また、この画像特徴点検出部では、画像全体から特徴点を抽出するものとする。
The image feature point extraction unit 21 has means for acquiring feature points included in an image photographed by the
フレームカウント部32ではフレーム数のカウントを行う手段を有し、画像取得部11にて受信した画像が処理の初期フレームであった場合や、処理途中でトラッキング失敗した場合などに初期化を行った際には、フレーム数のカウントを初期化する手段も有するものとする。なお、フレーム数は、カメラ装置10から送信された動画像を構成する各画像(フレーム)について、カメラ装置10から受信した画像の数として、定義される。そして、フレーム数は、ズーム検出部26にて安定した検出結果を得るために、複数のフレーム間の特徴点の移動状況の統計(例えば、平均移動方向など)を計算するために、使用される。
The
特徴点トラッキング部25は、フレーム内に含まれる特徴点のトラッキングを行う手段を有するものであり、各特徴点の位置変化を求める手段を有するものとする。このとき、特徴点にIDを付与しトラッキングを容易にしたり、初期フレームに対して特徴点の選択窓を適用し、特徴点を選択してもよいとする。また、特徴点が画面外に出てしまい、トラッキングを失敗した場合には、初期化を判断する手段を有していてもよいとする。 The feature point tracking unit 25 has means for tracking feature points included in a frame, and has means for obtaining a change in position of each feature point. At this time, it is assumed that the feature point may be selected by assigning an ID to the feature point to facilitate tracking, or by applying a feature point selection window to the initial frame. In addition, when the feature point goes out of the screen and tracking fails, it may be possible to have means for determining initialization.
なお、選択窓は、予め用意されたテンプレートを適用してもよいし、ユーザに領域を指定させてもよい。さらに、コンピュータが選択窓を算出する方法を適用してもよい。選択窓の算出法は、例えば、カメラ装置10が撮影対象とする画像領域について、カメラ装置10のオートフォーカスによって合わされた特定のピントに適合する領域と、ピントがずれている(画像がぼけている)領域とに分け、特定のピントに適合する領域を選択窓とする方式が、挙げられる。この方式により、ピントがずれている領域の特徴点の信頼性は低いので、これらの特徴点のノイズを低減することができる。
Note that a template prepared in advance may be applied to the selection window, or the user may designate an area. Further, a method in which the computer calculates the selection window may be applied. The calculation method of the selection window is such that, for example, an image region that is to be imaged by the
特徴点情報登録部24では、特徴点トラッキング部25にて、トラッキングされた特徴点のフレーム間における変位情報などを特徴点情報記憶部20に登録する手段を有する。なお、変位情報は、フレーム間において対応する特徴点の位置の移動量として、定義される。ここで、登録する情報としては、特徴点識別用のID、初期フレームからの経過フレーム番号、撮影時間間隔情報、各フレームにおける各特徴点の位置情報、トラッキングが成功しているか否かについての情報、などの情報を登録してもよいものとする。特徴点情報記憶部20では、特徴点情報登録部24から入力された情報を記憶する手段を有する。
The feature point information registration unit 24 has means for registering, in the feature point
ズーム検出部26では、特徴点情報記憶部20に記憶された情報を取得し、特徴点の変位情報からカメラの位置が初期フレームから前後に動いたか否かを検出する手段を有する。ここは、カメラ位置が初期フレームよりも前に動いた場合には、ズームインを行ったとし、また反対に初期フレームに比べ後ろに移動したと判断した場合にはズームアウトを行ったとみなすものとする。つまり、ズーム検出部26は、カメラ装置10によって撮影された画像に対する画像処理から、カメラ装置10の位置の移動を検出することを特徴とする。
The zoom detection unit 26 has means for acquiring information stored in the feature point
情報出力部41では、ズーム検出部26にてズームイン、ズームアウトの動作が行われたと判断した場合に、出力設定記憶部40に記憶された設定に従った内容の出力を行う手段を有するものとする。
The information output unit 41 includes means for outputting contents according to the settings stored in the output
出力設定記憶部40では、ズーム検出部26にてズームイン、ズームアウトが検出された際に、情報出力部41から出力する内容について設定を記憶しておく手段を有する。たとえば、ズームインが検出された場合には、「リターンキー」が押されたものとみなし、ズームアウトが検出された場合には、「クリア」ボタンが押された際の動作を行うものとする、などといった設定情報を記憶するものとする。
The output
図2の概念図を用いて、本発明について説明する。 The present invention will be described with reference to the conceptual diagram of FIG.
符号S201は操作装置9に付属するカメラ装置10を用いて撮影した画像であるとする。撮影する被写体としては、カメラ周辺に存在し、静物であるものとする。被写体からの距離などは特に指定しないものとする。
Reference numeral S <b> 201 is an image captured using the
前記カメラ装置10にて撮影された画像を本装置に入力すると、画像に含まれる特徴点が抽出される。特徴点の抽出方法としては、輝度情報や色相情報、輪郭情報などを利用してもよいものとする。安定的に検出される特徴点が抽出されればよいものとする。
When an image captured by the
この前記抽出された特徴点のうち、特徴点選択用の窓を適用することで、画像の中心付近に存在する特徴点を選択できるようにする。この様子を示したものが符号S202である。符号S202では、画像に含まれた特徴点に対して矩形が重なった状態の窓を適用し、その窓に含まれる特徴点を選択している。これにより、画像中心からある程度の距離を持つ特徴点分布を得ることが可能となる。 Of the extracted feature points, a feature point selection window is applied so that feature points existing near the center of the image can be selected. This is shown by reference numeral S202. In step S202, a window in which rectangles overlap with feature points included in an image is applied, and feature points included in the window are selected. This makes it possible to obtain a feature point distribution having a certain distance from the center of the image.
このとき、窓の形状としては、符号S202のような矩形状でなくても円形でもよいとする。また、枠問の幅は、事前に設定しておくとしてもよいが、選択窓に含まれる特徴点の数や、画像の平均輝度、ヒストグラムの分布状況によって変化させてもよいとする。 At this time, the shape of the window is not limited to the rectangular shape as in S202 but may be circular. The width of the frame question may be set in advance, but may be changed depending on the number of feature points included in the selection window, the average luminance of the image, and the distribution status of the histogram.
特徴点の検出は、初期フレーム以外では画面全体で行う。そして、初期フレームで検出された特徴点をトラッキングすることで、特徴点位置の変化を求める。 The feature points are detected on the entire screen except for the initial frame. Then, the feature point detected in the initial frame is tracked to obtain a change in the feature point position.
符号S203、符号S204では、カメラが前後され、特徴点の位置が変化した状態を表す。変化前の特徴点を丸、移動語の特徴点をひし形にて示す。カメラが後ろに移動した場合には、画像に含まれる対象物の大きさは移動した分小さくなり、特徴点の分布は移動前よりも狭くなる。また、カメラが前に移動した場合には、画像内での対象物の大きさは移動した分大きくなるため、特徴点分布は移動前よりも広くなる。 Reference numerals S203 and S204 indicate a state in which the camera is moved back and forth and the position of the feature point is changed. Feature points before change are indicated by circles, and feature points of moving words are indicated by diamonds. When the camera moves backward, the size of the object included in the image becomes smaller as it moves, and the distribution of feature points becomes narrower than before the movement. In addition, when the camera moves forward, the size of the object in the image becomes larger as it moves, so that the feature point distribution becomes wider than before the movement.
前後移動の検出については、特徴点分布が放射状に広がったり狭まったりすることを利用する。特徴点を含む矩形などの図形面積が、初期フレームでの特徴点による図形面積に比べ、広がったり狭まったりした場合に、前後に移動したと判断してもよいし、または、全特徴点の移動ベクトルを求め、初期フレームでの特徴点位置に比べ、外側に向いているのか、内側に向いているのかを判断し、前後移動を検出するとしてもよい。 For detection of back-and-forth movement, the fact that the feature point distribution expands or narrows radially is used. When the area of a figure such as a rectangle that includes a feature point is larger or smaller than the figure area of the feature point in the initial frame, it may be determined that it has moved back and forth, or all feature points have moved The vector may be obtained, and it may be determined whether it is directed outward or inward compared to the feature point position in the initial frame, and forward / backward movement is detected.
ユーザがカメラを把持する場合による手ぶれなどのノイズに対応するために、特徴点の変位検出には数フレームの画像を取得するものとする。取得フレーム数は、各フレーム間での特徴点の位置変化の大きさから変化させるものとする。たとえば、カメラを前後にゆっくり動かす場合には、手ぶれなどの変位ノイズが多く含まれるため、取得フレームを多くし、逆に、カメラを急速に移動させる場合には、取得フレーム数は少なくても、前後移動が容易に検出されるため、少ないフレーム数にしてもよいものとする。 In order to cope with noise such as camera shake caused by the user holding the camera, an image of several frames is acquired for detecting the displacement of the feature point. The number of acquired frames is changed from the magnitude of the position change of the feature point between the frames. For example, when moving the camera slowly back and forth, there are many displacement noises such as camera shake, so there are many acquisition frames, and conversely, when moving the camera rapidly, even if the number of acquisition frames is small, Since the back-and-forth movement is easily detected, the number of frames may be reduced.
特徴点の変位からカメラの動きが検出された場合には、前後移動にそれぞれ対応させた出力をするものとする。この出力は、ある一定の出力を行ってもよいし、または、事前の設定により、特定の出力を行ってもよいものとする。なお、事前の設定は、例えば、前の移動を決定(エンター)動作とし、後の移動を戻る(リターン)動作とし、前後左右の移動をカーソルの前後左右の移動動作とするような、カメラの動きと画面への動作とを対応づける情報である。 When a camera movement is detected from the displacement of the feature point, an output corresponding to the back and forth movement is output. This output may be a certain output, or a specific output may be performed by a prior setting. In addition, the advance setting is, for example, a camera movement in which the previous movement is determined (enter), the subsequent movement is returned (return), and the forward / backward / left / right movement is the forward / backward / left / right movement of the cursor. This is information for associating movements with actions on the screen.
以上、操作装置9の構成について、説明した。次に、本実施形態の操作装置9の動作について、図1、図2、図5、図6、図7を参照しつつ、図3および図4に沿って説明する。 The configuration of the operation device 9 has been described above. Next, operation | movement of the operating device 9 of this embodiment is demonstrated along FIG.3 and FIG.4, referring FIG.1, FIG.2, FIG.5, FIG.6 and FIG.
まず、図3のフローチャートを用いて、説明を行う。なお、図3の動作の主体は、操作装置9である。 First, description will be made with reference to the flowchart of FIG. 3 is the operation device 9.
まず、画像要求送信処理(S301)ではカメラ装置10に対して、撮影要求を送信する。前記撮影要求は、撮影時問間隔や、撮影画像サイズなどの情報も含まれていてもよいものとする。
First, in the image request transmission process (S301), a shooting request is transmitted to the
画像受信処理(S302)は、前記画像要求送信処理(S301)にてカメラ装置10に送信した内容で撮影された画像を受信する。ここで、カメラ装置10は、操作装置9に内蔵されていてもよいし、操作装置9と有線通信または無線通信により通信可能に構成されてもよい。なお、有線通信は、例えば、USB(Universal Serial Bus)規格によって行われる。
In the image reception process (S302), an image captured with the content transmitted to the
操作装置9は、画像受信処理(S302)で受信した画像が初期フレームのものであるか否かを判断する。画像要求送信処理(S301)の実行回数が1回目であれば、初期フレームと判断し(S303、Yes)、フレームカウンタ初期化処理(S304)を実行する。ここで、初期フレームとして判断される条件として、特徴点のトラッキングが失敗した場合も含めるものとする。トラッキング失敗の場合には、カウンタ初期化要求が送信されるため、初期化要求を受信した時点で、初期フレームと判断してよいものとする。 The controller device 9 determines whether the image received in the image reception process (S302) is that of the initial frame. If the number of execution times of the image request transmission process (S301) is the first time, it is determined as an initial frame (S303, Yes), and a frame counter initialization process (S304) is executed. Here, the condition determined as the initial frame includes a case where the tracking of the feature point has failed. In the case of tracking failure, a counter initialization request is transmitted, so that it may be determined as an initial frame when the initialization request is received.
フレームカウント処理(S305)では、フレーム数のカウントを行う。フレームカウンタ初期化処理(S304)が実行された場合には、カウント数は初期化されているものとする。 In the frame count process (S305), the number of frames is counted. When the frame counter initialization process (S304) is executed, it is assumed that the count number has been initialized.
その後、特徴点検出処理(S308)にて画像中の特徴点を抽出する。特徴点抽出方法は、輝度情報や色相情報、または輪郭情報などを利用してもよいとする。または、これらの情報を組み合わせた手法を用い、入力画像により抽出方法を変化させてもよいとする。 Thereafter, feature points in the image are extracted by feature point detection processing (S308). The feature point extraction method may use luminance information, hue information, contour information, or the like. Alternatively, a method combining these pieces of information may be used, and the extraction method may be changed depending on the input image.
フレームのカウント数が初期化されている場合には(S309、Yes)、特徴点選択用の窓を適用するため、選択用窓適用処理(S310)を実行する。その後、特徴点ID付与処理(S311)にて選択した特徴点に対して特徴点ID付与処理(S311)を行い、選択した各特徴点にIDを付与する。 If the frame count has been initialized (S309, Yes), the selection window application process (S310) is executed to apply the feature point selection window. Thereafter, a feature point ID assigning process (S311) is performed on the feature point selected in the feature point ID assigning process (S311), and an ID is assigned to each selected feature point.
特徴点トラッキング処理(S312)は、IDを付与された特徴点をトラッキングする。特徴点情報記憶部20を参照し、特徴点の変位情報を算出する。
The feature point tracking process (S312) tracks the feature point assigned with the ID. With reference to the feature point
特徴点情報登録処理(S314)では、特徴点IDを元に、各特徴点の変位情報、トラッキング結果などを特徴点情報記憶部20に登録する。S309にて初期フレームであると判断された場合には、特徴点のID情報や、位置情報などが登録され、次フレームでトラッキングを行うために参照される。
In the feature point information registration process (S314), the displacement information of each feature point, the tracking result, and the like are registered in the feature point
トラッキングが失敗したと判断された場合には(S315、Yes)、初期化要求処理(S316)が実行される。初期化要求処理(S316)では、初期化要求が画像受信処理(S302)に送られ、次の画像が受信された時点を初回の受信として見なすことになる。 If it is determined that the tracking has failed (S315, Yes), an initialization request process (S316) is executed. In the initialization request process (S316), the initialization request is sent to the image reception process (S302), and the time when the next image is received is regarded as the first reception.
トラッキングが成功した場合には(S315、No)、ズームイン、ズームアウトを検出するズーム検出処理(S317)を実行する。ここでは、フレームカウント数を参照し、ズームイン、ズームアウトの時間変化を求め、一定フレーム連続してどちらかの操作が行われた場合に検出結果を出力するものとする。ある一定時間における変化を閾値としておくことで、手ぶれなどの微小変化に対応するものとする。 If the tracking is successful (S315, No), a zoom detection process (S317) for detecting zoom-in and zoom-out is executed. Here, referring to the frame count number, the temporal change of zoom-in and zoom-out is obtained, and the detection result is output when either operation is performed continuously for a certain frame. By setting a change over a certain period of time as a threshold value, it is possible to deal with minute changes such as camera shake.
また、特徴点情報記憶部20を参照し、各フレーム間での変化量を求めることで、ズームイン、ズームアウトの操作が急速に行われたか、またはゆっくりと行われたかを変化量を求めることで検出でき、この変化量に合わせてズームの検出のための時間を変化させるとしてもよい。たとえば、急速にズームイン、ズームアウトの操作が行われた場合には、フレーム間の変化量が大きいことから、ズーム動作の検出のためのフレーム数を減らしても検出が容易であるため、フレーム数を減らすことができる。
Further, by referring to the feature point
逆に、ゆっくりとした操作である場合には、ズーム検出のためのフレーム数を多く取ることで、手ぶれなどのノイズに対応できるようになる。また、ズーム検出処理(S317)にて、複数のフレーム間における特徴点の変位の平均などの統計量を用いて、ある一定時間における各特徴点の移動方向を検出してもよいとする。 Conversely, when the operation is slow, it is possible to deal with noise such as camera shake by increasing the number of frames for zoom detection. In addition, in the zoom detection process (S317), it is assumed that the moving direction of each feature point in a certain period of time may be detected using a statistic such as an average of the displacement of feature points between a plurality of frames.
出力処理(S318)では、ズームイン、ズームアウトの動作が検出された場合に、それぞれの動作に対応づけられた出力を、出力設定記憶部40を参照して、事前の設定を元に情報出力部41が、表示装置42に操作を出力する。そして、終了継続の判断において、外部から終了命令が与えられた場合に、終了選択を行い、終了するものとする。
In the output process (S318), when the zoom-in and zoom-out operations are detected, the output associated with each operation is referred to the output
本発明の処理をサーバ・クライアント間で行う場合について、図4を用いて説明する。なお、図4の動作の主体は、操作入力端末1(クライアントに対応)および操作解析装置2(サーバに対応)である。ここで、1台の操作解析装置2(サーバ)は、複数の操作入力端末1(クライアント)を扱ってもよい。そのため、個々の操作入力端末1には、端末を識別するためのIDが付されており、操作解析装置2とデータを通信する際には、端末を識別するためのIDが、通信の各パケットに含まれるようにする。 A case where the processing of the present invention is performed between a server and a client will be described with reference to FIG. 4 are the operation input terminal 1 (corresponding to the client) and the operation analysis device 2 (corresponding to the server). Here, one operation analysis apparatus 2 (server) may handle a plurality of operation input terminals 1 (clients). Therefore, an ID for identifying the terminal is attached to each operation input terminal 1. When communicating data with the operation analysis device 2, the ID for identifying the terminal is used for each communication packet. To be included.
図4は、図3と異なり、操作装置9の役割を、操作入力端末1と操作解析装置2とに分離することを特徴とする。これにより、操作解析装置2が画像処理を一括で行うので、操作入力端末1の計算の負担を軽減することができる。よって、操作入力端末1は、従来から普及している簡易的なプログラムが実行可能な携帯電話などに、操作入力端末1の処理を実現するプログラムをインストールするだけで済むので、ハードウェアの買い替えをせずに済む。これにより、本発明に関する操作装置9を、低コストで普及させることができる。 4 differs from FIG. 3 in that the role of the operation device 9 is separated into the operation input terminal 1 and the operation analysis device 2. Thereby, since the operation analysis apparatus 2 performs image processing collectively, the calculation burden of the operation input terminal 1 can be reduced. Therefore, the operation input terminal 1 only needs to install a program for realizing the processing of the operation input terminal 1 in a mobile phone or the like that can execute a simple program that has been widely used. You do n’t have to. Thereby, the operating device 9 according to the present invention can be spread at a low cost.
画像要求受信処理(S401)では、カメラ装置10に画像の送信を要求し、受信を行う。
In the image request reception process (S401), the
フレームカウント処理(S402)では、画像を取得した回数をカウントする。入力される画像を動画フレームの1フレームごととみなして、フレーム数をカウントする。 In the frame count process (S402), the number of times the image is acquired is counted. The input image is regarded as every moving image frame, and the number of frames is counted.
カウント記憶部30は、カウントしたフレーム数と保存しておく記憶手段であり、ユーザID情報記憶部31は、ユーザIDを保存しておく記憶手段である。なお、ユーザIDはサーバ側にデータを送信したときの、送信元の識別のために使用される。
The
画像、ユーザID情報送信処理(S404)では、画像要求受信処理(S401)にて取得された画像と、ユーザIDをサーバ側に送信する。サーバ側に送信された画像は、画像、ユーザID情報受信処理(S405)にて受信される。ここで、画像情報とともに送られたユーザIDが認識され、ユーザの識別が行われる。ユーザIDから受信した画像データが初期フレームであるか否かを確認する。 In the image and user ID information transmission process (S404), the image acquired in the image request reception process (S401) and the user ID are transmitted to the server side. The image transmitted to the server side is received in the image and user ID information reception process (S405). Here, the user ID sent together with the image information is recognized, and the user is identified. It is confirmed whether the image data received from the user ID is an initial frame.
初期フレームである場合には(S407、Yes)、カウント初期化処理(S408)にてフレームカウンタのカウンタを初期化する。そして、フレームカウント処理(S409)にてフレームカウントが実行される。カウント初期化処理(S408)でカウントが初期化された場合には、カウントは初期化されるものとする。カウント情報は、カウント記憶部30で保存される。
If it is an initial frame (S407, Yes), the counter of the frame counter is initialized in the count initialization process (S408). Then, the frame count is executed in the frame count process (S409). When the count is initialized in the count initialization process (S408), the count is initialized. The count information is stored in the
特徴点抽出処理(S410)にて画像内の特徴点が抽出される。このとき、特徴点抽出方法としては、輝度分布であったり、色相情報であったりしてもよく、複数の画像特徴量を利用して抽出してもよい。また、画像情報から利用する特徴量を変えてもよいものとする。 In the feature point extraction process (S410), feature points in the image are extracted. At this time, the feature point extraction method may be a luminance distribution or hue information, and may be extracted using a plurality of image feature amounts. In addition, the feature amount used from the image information may be changed.
カウントがカウント初期化処理(S408)にて初期化されている場合には(S412、Yes)、特徴点の選択を行うために、選択用窓適用処理(S413)にて選択用の窓を適用する。この選択窓は、図2の202にて説明したような矩形を重ねた状態の窓であってもよいし、円形を重ねた状態の窓であってもよいものとする。選択された特徴点が、中心からある程度の距離をもって分布するようになればよいとする。 When the count is initialized by the count initialization process (S408) (S412, Yes), the selection window is applied by the selection window application process (S413) in order to select the feature point. To do. This selection window may be a window in which rectangles are overlapped as described in 202 of FIG. 2 or may be a window in which circles are overlapped. Assume that the selected feature points only need to be distributed with a certain distance from the center.
選択用窓適用処理(S413)にて選択された特徴点は、識別用ID付与処理(S414)にて識別用のIDを付与される。特徴点IDの情報と、特徴点の位置情報、フレームカウント数などが特徴点情報記憶部20に保存される。この特徴点情報記憶部20に保存された情報を元に、特徴点トラッキング処理(S416)にて特徴点のトラッキングを行う。
The feature point selected in the selection window application process (S413) is given an identification ID in the identification ID assignment process (S414). The feature point ID information, the feature point position information, the frame count number, and the like are stored in the feature point
特徴点トラッキング処理(S416)によって、各フレーム間での特徴点の変位情報が得られる。この変位情報は、特徴点情報登録処理(S418)で特徴点情報記憶部20に保存される。
By the feature point tracking process (S416), the displacement information of the feature points between the frames is obtained. This displacement information is stored in the feature point
このとき、トラッキングを失敗し、特徴点のトラッキングができなかった場合には(S419、Yes)、再度初期条件に戻すように初期化要求処理(S420)を実行する。この初期化要求処理(S420)にて初期化された際には、画像、ユーザID情報受信処理(S405)で画像が初めて入力された場合と同様に、カウント初期化処理(S408)が実行され、フレームカウンタが初期化される。 At this time, if tracking fails and feature points cannot be tracked (S419, Yes), initialization request processing (S420) is executed so as to return to the initial conditions again. When the image is initialized in the initialization request process (S420), the count initialization process (S408) is executed in the same manner as when an image is input for the first time in the image and user ID information reception process (S405). The frame counter is initialized.
トラッキングが成功した場合には(S419、No)、ズームが行われたか、否かを検出するズーム検出処理(S421)が実行される。ズームイン、ズームアウトが検出されたか否かの検出結果を検出結果送信処理(S422)にてクライアント側に送信する。このとき、送信される検出結果は、ズームイン、ズームアウト、検出なし、失敗などの情報を送信するものとする。 When the tracking is successful (S419, No), a zoom detection process (S421) for detecting whether or not zooming has been performed is executed. A detection result indicating whether zoom-in or zoom-out has been detected is transmitted to the client side in a detection result transmission process (S422). At this time, information such as zoom-in, zoom-out, no detection, or failure is transmitted as the detection result to be transmitted.
クライアントに送信された検出結果情報は、検出結果受信処理(S423)にて受信され、検出が成功したか否かを判断する。その結果、検出が成功していれば(S424、No)、ズームイン、ズームアウトに対応させた出力を出す。このとき、出力設定記憶部40の出力設定をもとにして出力を行うものとする。検出が成功しても失敗しても、終了・継続命令送信処理(S427)を実行する。
The detection result information transmitted to the client is received in the detection result reception process (S423), and it is determined whether or not the detection is successful. As a result, if the detection is successful (S424, No), an output corresponding to zoom-in and zoom-out is output. At this time, output is performed based on the output setting of the output
この終了・継続命令はサーバ側の終了・継続命令受信処理(S428)にて受信される。受信結果から、終了命令が得られた場合には、サーバ側の処理は終了するものとする(S429、No)。これらの処理により、画像の特徴点の変位からカメラの前後移動を検出することが可能となる。 This end / continuation command is received in the server side end / continuation command reception process (S428). If an end command is obtained from the reception result, the server-side processing is ended (S429, No). With these processes, it is possible to detect the back-and-forth movement of the camera from the displacement of the feature points of the image.
以上説明した本発明は、以下のようにその趣旨を逸脱しない範囲で広く変形実施することができる。 The present invention described above can be widely modified without departing from the spirit thereof as follows.
例えば、カメラ装置10の移動と、カーソル動作との対応情報は、前記の対応情報に限定されず、様々な対応情報を活用してもよい。例えば、前の移動を戻る(リターン)動作とし、後の移動を決定(エンター)動作としてもよい。
For example, the correspondence information between the movement of the
1 操作入力端末
9 操作装置
10 カメラ装置
20 特徴点情報記憶部
21 画像特徴点抽出部
22 選択用窓適用部
26 ズーム検出部
40 出力設定記憶部
41 情報出力部
DESCRIPTION OF SYMBOLS 1 Operation input terminal 9
Claims (10)
前記操作装置は、前記カメラ装置によって撮影された画像を取得する撮影手段と、前記画像をもとにカメラ装置の位置の移動を検出する操作検出手段と、前記検出された位置の移動に対応づけられている動作を出力する動作出力手段と、を含めて構成され、
前記操作検出手段は、前記画像が時系列に拡大されている場合に、前記カメラ装置が撮影対象に接近する方向へ移動する前移動として検出し、前記画像が時系列に縮小されている場合に、前記カメラ装置が撮影対象から遠ざかる方向へ移動する後移動として検出し、
前記動作出力手段は、前記前移動に対応する動作または前記後移動に対応づけられている動作のうち、少なくとも1つの動作を出力することを特徴とする操作装置。 An operation device for inputting an operation based on the movement of the position of the camera device,
The operating device is associated with a photographing unit that acquires an image photographed by the camera device, an operation detecting unit that detects a movement of the position of the camera device based on the image, and a movement of the detected position. Operation output means for outputting the operation being performed, and
When the image is enlarged in time series, the operation detection means detects the camera device as a pre-movement that moves in a direction approaching the shooting target, and the image is reduced in time series. , Detected as a movement after the camera device moves away from the object to be photographed,
The operation output means outputs at least one operation among an operation corresponding to the forward movement or an operation associated with the backward movement.
前記前移動に対応づけられている動作は、前記データ構造を下位の階層へアクセスする動作とし、
前記後移動に対応づけられている動作は、前記データ構造を上位の階層へアクセスする動作とすることを特徴とする請求項1に記載の操作装置。 The operating device shall access a hierarchical data structure,
The operation associated with the previous movement is an operation of accessing the data structure to a lower hierarchy,
The operation device according to claim 1, wherein the operation associated with the backward movement is an operation of accessing the data structure to an upper hierarchy.
前記動作出力手段は、前記平行移動されている方向へカーソルを移動させる動作を出力することを特徴とする請求項1ないし請求項4のいずれか1項に記載の操作装置。 The operation detection means detects the direction of translation when the image is translated in time series,
The operation device according to any one of claims 1 to 4, wherein the operation output means outputs an operation of moving a cursor in the direction of the parallel movement.
前記操作入力端末は、前記カメラ装置によって撮影された画像を取得する撮影手段と、前記画像をもとに検出されたカメラ装置の位置の移動に対応づけられている動作を出力する動作出力手段と、を含めて構成され、
前記カメラ装置の位置の移動は、前記カメラ装置が撮影対象に接近する方向へ移動する前移動、または、前記カメラ装置が撮影対象から遠ざかる方向へ移動する後移動のうち、少なくとも1つから構成され、
前記動作出力手段は、前記前移動に対応する動作または前記後移動に対応づけられている動作のうち、少なくとも1つの動作を、記憶手段から読み出して出力することを特徴とする操作入力端末。 An operation input terminal for inputting an operation based on the movement of the position of the camera device,
The operation input terminal includes a photographing unit that acquires an image photographed by the camera device, and an operation output unit that outputs an operation associated with the movement of the position of the camera device detected based on the image. , Including,
The movement of the position of the camera device includes at least one of a pre-movement in which the camera device moves in a direction approaching the object to be imaged and a post-movement in which the camera device moves in a direction away from the object to be imaged. ,
The operation input terminal is characterized in that at least one of the operations corresponding to the forward movement or the movements associated with the backward movement is read out from the storage means and output.
前記前移動に対応づけられている動作は、前記データ構造を下位の階層へアクセスする動作とし、
前記後移動に対応づけられている動作は、前記データ構造を上位の階層へアクセスする動作とすることを特徴とする請求項6に記載の操作入力端末。 The operation input terminal shall access a hierarchical data structure,
The operation associated with the previous movement is an operation of accessing the data structure to a lower hierarchy,
The operation input terminal according to claim 6, wherein the operation associated with the backward movement is an operation of accessing the data structure to a higher hierarchy.
コンピュータが、前記カメラ装置によって撮影された画像を取得する撮影手順と、前記画像をもとにカメラ装置の位置の移動を検出する操作検出手順と、前記検出された位置の移動に対応づけられている動作を出力する動作出力手順と、を実行し、
前記操作検出手順は、前記画像が時系列に拡大されている場合に、前記カメラ装置が撮影対象に接近する方向へ移動する前移動として検出し、前記画像が時系列に縮小されている場合に、前記カメラ装置が撮影対象から遠ざかる方向へ移動する後移動として検出し、
前記動作出力手順は、前記前移動に対応する動作または前記後移動に対応づけられている動作のうち、少なくとも1つの動作を出力することを特徴とする操作方法。 An operation method for inputting an operation based on the movement of the position of the camera device,
The computer is associated with a shooting procedure for acquiring an image shot by the camera device, an operation detection procedure for detecting a movement of the position of the camera device based on the image, and a movement of the detected position. And an operation output procedure for outputting the operation being performed, and
The operation detection procedure detects when the camera device is moved in a direction approaching the object to be photographed when the image is enlarged in time series, and when the image is reduced in time series. , Detected as a movement after the camera device moves away from the object to be photographed,
The operation output procedure outputs at least one operation among an operation corresponding to the forward movement or an operation associated with the backward movement.
前記前移動に対応づけられている動作は、前記データ構造を下位の階層へアクセスする動作とし、
前記後移動に対応づけられている動作は、前記データ構造を上位の階層へアクセスする動作とすることを特徴とする請求項8に記載の操作方法。 The computer shall access a hierarchical data structure;
The operation associated with the previous movement is an operation of accessing the data structure to a lower hierarchy,
The operation method according to claim 8, wherein the operation associated with the backward movement is an operation of accessing the data structure to a higher hierarchy.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004147925A JP2005332061A (en) | 2004-05-18 | 2004-05-18 | Operation unit, operation input terminal, operation method, and operation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004147925A JP2005332061A (en) | 2004-05-18 | 2004-05-18 | Operation unit, operation input terminal, operation method, and operation program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005332061A true JP2005332061A (en) | 2005-12-02 |
Family
ID=35486706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004147925A Pending JP2005332061A (en) | 2004-05-18 | 2004-05-18 | Operation unit, operation input terminal, operation method, and operation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005332061A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010050842A (en) * | 2008-08-22 | 2010-03-04 | Sony Taiwan Ltd | High dynamic stitching method for multi-lens camera system |
JP4493730B2 (en) * | 2008-07-31 | 2010-06-30 | 国立大学法人広島大学 | Three-dimensional object display control apparatus and method |
JP2019200787A (en) * | 2018-05-09 | 2019-11-21 | キヤノン株式会社 | Image processor, method for processing image, imaging device, and program |
-
2004
- 2004-05-18 JP JP2004147925A patent/JP2005332061A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4493730B2 (en) * | 2008-07-31 | 2010-06-30 | 国立大学法人広島大学 | Three-dimensional object display control apparatus and method |
JPWO2010013336A1 (en) * | 2008-07-31 | 2012-01-05 | 国立大学法人広島大学 | Three-dimensional object display control apparatus and method |
US8462105B2 (en) | 2008-07-31 | 2013-06-11 | Hiroshima University | Three-dimensional object display control system and method thereof |
JP2010050842A (en) * | 2008-08-22 | 2010-03-04 | Sony Taiwan Ltd | High dynamic stitching method for multi-lens camera system |
JP2019200787A (en) * | 2018-05-09 | 2019-11-21 | キヤノン株式会社 | Image processor, method for processing image, imaging device, and program |
JP7341712B2 (en) | 2018-05-09 | 2023-09-11 | キヤノン株式会社 | Image processing device, image processing method, imaging device, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107493495B (en) | Interactive position determining method, system, storage medium and intelligent terminal | |
JP6355829B2 (en) | Gesture recognition device, gesture recognition method, and information processing device | |
JP5765019B2 (en) | Display control apparatus, display control method, and program | |
CN111357296B (en) | Video distribution device, video distribution system, video distribution method, and storage medium | |
EP2079009A1 (en) | Apparatus and methods for a touch user interface using an image sensor | |
JP6314251B2 (en) | Operation input device, operation input method and program | |
JP2017534933A (en) | Instruction generation method and apparatus | |
KR101631011B1 (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
CN109639896A (en) | Block object detecting method, device, storage medium and mobile terminal | |
US11798177B2 (en) | Hand tracking method, device and system | |
CN112714253B (en) | Video recording method and device, electronic equipment and readable storage medium | |
US9268408B2 (en) | Operating area determination method and system | |
CN102196176A (en) | Information processing apparatus, information processing method, and program | |
KR20180131616A (en) | Fingerprint Recognition Method, Device, Program and Storage Medium | |
JPWO2009142098A1 (en) | Image processing apparatus, camera, image processing method and program | |
TW201939260A (en) | Method, apparatus, and terminal for simulating mouse operation by using gesture | |
KR101503017B1 (en) | Motion detecting method and apparatus | |
CN113253908A (en) | Key function execution method, device, equipment and storage medium | |
KR20120028248A (en) | Device and method for controlling gesture | |
CN107797748B (en) | Virtual keyboard input method and device and robot | |
KR102070598B1 (en) | Camera apparatus and method for controlling thereof | |
CN113282164A (en) | Processing method and device | |
JP2005332061A (en) | Operation unit, operation input terminal, operation method, and operation program | |
JP2013143578A (en) | Image processing device and control method therefor | |
CN112529770A (en) | Image processing method, image processing device, electronic equipment and readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080617 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080806 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080902 |