JP2009026001A - Operation device and electric apparatus - Google Patents

Operation device and electric apparatus Download PDF

Info

Publication number
JP2009026001A
JP2009026001A JP2007187473A JP2007187473A JP2009026001A JP 2009026001 A JP2009026001 A JP 2009026001A JP 2007187473 A JP2007187473 A JP 2007187473A JP 2007187473 A JP2007187473 A JP 2007187473A JP 2009026001 A JP2009026001 A JP 2009026001A
Authority
JP
Japan
Prior art keywords
touch panel
operating body
image
contact position
pointing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007187473A
Other languages
Japanese (ja)
Inventor
Haruki Ishimochi
春樹 石持
Toshihiro Iwase
敏広 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2007187473A priority Critical patent/JP2009026001A/en
Publication of JP2009026001A publication Critical patent/JP2009026001A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an operation device capable of performing a complicated and complex operation, and to provide an electric apparatus. <P>SOLUTION: A pointing device 1 having an operation board 12 to be movable from a prescribed position to a plurality of positions and outputting operation signals corresponding to the movement direction of the operation board 12 includes: a disc-like touch panel 13 arranged on the surface of the operation board 12 after a disc-like operation board 12 is formed; and an operation signal output connector 16 for outputting the operation signals in response to the detection result of the touch panel 13 and the movement direction of the operation board 12. The pointing device 1 is arranged in the electric apparatus and is operated in response to the operations of the operation board 12 and the touch panel. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、所定位置から複数方向への移動が可能な操作体を備え、該操作体の移動方向に応じた操作信号を出力する操作装置、及び該操作装置を備えた電気機器に関する。   The present invention relates to an operating device that includes an operating body that can move in a plurality of directions from a predetermined position, and that outputs an operation signal in accordance with the moving direction of the operating body, and an electrical apparatus including the operating device.

操作装置としてポインティングデバイスを備えたノートパソコン、携帯電話、DVDレコーダ等の各種電気機器が提案されている(例えば、特許文献1)。   Various electric devices such as a notebook personal computer, a mobile phone, and a DVD recorder provided with a pointing device have been proposed as an operation device (for example, Patent Document 1).

図23は、従来のポインティングデバイス501を模式的に示す横断面図である。従来のポインティングデバイス501は、板状の基部511に対して傾倒可能に支持された操作桿514を備えている。操作桿514の先端部はゴムキャップ512で覆われており、ゴムキャップ512の上面にはタッチセンサ513が設けられている。
使用者がゴムキャップ512を押圧して操作桿514を傾倒させると、操作桿514の基端部に設けられた加重センサ515が操作桿514の傾倒方向に応じた操作信号を出力する。また、タッチセンサ513に指が触れた場合、タッチセンサ513は接触操作信号を出力する。
FIG. 23 is a cross-sectional view schematically showing a conventional pointing device 501. A conventional pointing device 501 includes an operation rod 514 supported to be tiltable with respect to the plate-like base 511. The tip of the operation rod 514 is covered with a rubber cap 512, and a touch sensor 513 is provided on the upper surface of the rubber cap 512.
When the user presses the rubber cap 512 and tilts the operating rod 514, the weight sensor 515 provided at the base end of the operating rod 514 outputs an operation signal corresponding to the tilting direction of the operating rod 514. Further, when a finger touches the touch sensor 513, the touch sensor 513 outputs a contact operation signal.

電気機器、例えばノートパソコンに搭載された制御装置は、操作桿514の傾倒を検出した場合、接触操作信号の有無に関わらず、操作桿514の傾倒方向に応じた処理を実行する。例えば、ノートパソコンのディスプレイに表示されたポインタを移動させる。また、制御装置は、操作桿514が傾倒を検出していない状態でタッチセンサ513の接触操作信号を検出した場合、決定処理を実行する。例えば、ポインタで選択されたソフトキーに対応する処理を実行する。   When detecting the tilt of the operation rod 514, the control device mounted on an electric device, for example, a notebook computer, executes a process corresponding to the tilt direction of the operation rod 514 regardless of the presence or absence of the contact operation signal. For example, the pointer displayed on the display of the notebook computer is moved. Further, when the control device 514 detects a contact operation signal of the touch sensor 513 in a state where the operation rod 514 does not detect tilting, the control device executes determination processing. For example, processing corresponding to the soft key selected with the pointer is executed.

このように構成された従来のポインティングデバイス501においては、ポインティングデバイス501にボタン1個分の機能を追加することができ、省スペース化を図ることができる。
特開平8−335141号公報
In the conventional pointing device 501 configured as described above, a function corresponding to one button can be added to the pointing device 501 and space saving can be achieved.
JP-A-8-335141

しかしながら、従来のポインティングデバイスにおいては、操作桿を操作する際、必ず指がタッチパネルに触れるため、操作桿とタッチパネルとを独立して操作することができず、操作効率が悪いという問題があった。   However, in the conventional pointing device, when operating the operation stick, the finger always touches the touch panel, so that the operation stick and the touch panel cannot be operated independently, and there is a problem that the operation efficiency is poor.

本発明は斯かる事情に鑑みてなされたものであり、所定位置から複数方向への移動が可能な操作体と、該操作体の表面に配されたタッチパネルを備えることにより、操作体の操作と同時にタッチパネルの操作も行うことができ、より複雑で複合的な操作を行うことができる操作装置及び電気機器を提供することを目的とする。   The present invention has been made in view of such circumstances, and includes an operation body capable of moving in a plurality of directions from a predetermined position, and a touch panel disposed on the surface of the operation body. An object of the present invention is to provide an operating device and an electric device that can simultaneously operate a touch panel and can perform more complicated and complex operations.

本発明に係る操作装置は、所定位置から複数方向への移動が可能な操作体を備え、該操作体の移動方向に応じた操作信号を出力する操作装置において、前記操作体の表面に配されており、物体の接触位置を検出するタッチパネルと、該タッチパネルの検出結果及び操作体の移動方向に応じて操作信号を出力する操作信号出力部とを備えることを特徴とする。   An operating device according to the present invention includes an operating body capable of moving in a plurality of directions from a predetermined position, and is provided on a surface of the operating body in an operating device that outputs an operation signal corresponding to the moving direction of the operating body. And a touch panel that detects the contact position of the object, and an operation signal output unit that outputs an operation signal in accordance with a detection result of the touch panel and a moving direction of the operation body.

本発明に係る電気機器は、所定位置から複数方向への移動が可能な操作体を備え、該操作体の移動方向に応じて動作する電気機器において、前記操作体の表面に配されており、物体の接触位置を検出するタッチパネルと、該タッチパネルの検出結果及び操作体の移動方向に応じて動作を制御する制御手段とを備えることを特徴とする。   An electrical device according to the present invention includes an operating body capable of moving in a plurality of directions from a predetermined position, and in an electrical device that operates according to the moving direction of the operating body, the electrical device is disposed on a surface of the operating body. It is characterized by comprising a touch panel for detecting the contact position of an object, and a control means for controlling the operation according to the detection result of the touch panel and the moving direction of the operating body.

本発明に係る電気機器は、前記タッチパネルにて検出された接触位置の軌跡を記憶する手段と、前記操作体が移動した場合、記憶された接触位置の軌跡に基づいて、文字を特定する手段とを備えることを特徴とする。   The electrical device according to the present invention includes means for storing a locus of a contact position detected by the touch panel, and means for specifying a character based on the stored locus of the contact position when the operating body moves. It is characterized by providing.

本発明に係る電気機器は、前記タッチパネルが複数の接触位置を検出した場合、検出された各接触位置を記憶する手段と、記憶した接触位置に基づいて、各接触位置の位置関係の変化を特定する手段とを備え、前記制御手段は、各接触位置の位置関係の変化に基づいて、動作を制御する手段を備えることを特徴とする。   When the touch panel detects a plurality of contact positions, the electrical device according to the present invention specifies a change in the positional relationship between the contact positions based on the means for storing the detected contact positions and the stored contact positions. Means for controlling the operation based on a change in the positional relationship between the contact positions.

本発明に係る電気機器は、画像データに基づいて画像を拡大又は縮小させる手段を備え、前記制御手段は、各接触位置間の距離が変化した場合、画像を拡大又は縮小させるようにしてあることを特徴とする。   The electrical apparatus according to the present invention includes means for enlarging or reducing an image based on image data, and the control means enlarges or reduces the image when the distance between the contact positions changes. It is characterized by.

本発明に係る電気機器は、画像データに基づいて画像を回転させる手段を備え、前記制御手段は、各接触位置が所定位置を中心に回転した場合、画像を回転させるようにしてあることを特徴とする。   The electrical apparatus according to the present invention includes means for rotating an image based on image data, and the control means rotates the image when each contact position rotates around a predetermined position. And

本発明に係る電気機器は、前記画像データに基づいて画像を移動させる手段を備え、前記制御手段は、前記タッチパネルが複数の接触位置を検出しており、前記操作体が移動した場合、該操作体の移動方向に応じて画像を移動させるようにしてあることを特徴とする。   The electrical apparatus according to the present invention includes means for moving an image based on the image data, and the control means detects a plurality of contact positions on the touch panel, and the operation body moves when the operation body moves. The image is moved in accordance with the moving direction of the body.

本発明に係る電気機器は、前記制御手段は、前記タッチパネルが複数の接触位置を検出しており、前記操作体が前記所定位置から移動した場合、前記操作体の移動方向に応じて第1の動作を制御する手段と、前記タッチパネルが単一の接触位置を検出しており、前記操作体が前記所定位置から移動した場合、前記操作体の移動方向に応じて第2の動作を制御する手段とを備えることを特徴とする。   In the electric device according to the present invention, the control means detects a plurality of contact positions of the touch panel, and when the operation body moves from the predetermined position, the control means performs a first operation according to a moving direction of the operation body. Means for controlling the operation and means for controlling the second operation according to the moving direction of the operating body when the touch panel detects a single contact position and the operating body has moved from the predetermined position. It is characterized by providing.

本発明に係る電気機器は、前記制御手段は、前記タッチパネルが一の接触位置を検出しており、前記操作体が前記所定位置から移動した場合、前記操作体の移動方向に応じて第1の動作を制御する手段と、前記タッチパネルが他の接触位置を検出しており、前記操作体が前記所定位置から移動した場合、前記操作体の移動方向に応じて第2の動作を制御する手段とを備えることを特徴とする。   In the electrical device according to the present invention, the control means detects the first touch position of the touch panel, and when the operation body moves from the predetermined position, the control means performs a first operation according to a moving direction of the operation body. Means for controlling an operation; and means for controlling a second operation in accordance with a moving direction of the operating body when the touch panel detects another contact position and the operating body moves from the predetermined position; It is characterized by providing.

本発明にあっては、操作体は所定位置から複数方向への移動が可能である。また、操作体の表面には、物体の接触位置を検出するタッチパネルが配されており、操作信号出力部は、操作体の移動方向及びタッチパネルの検出結果に応じた操作信号を出力する。
タッチパネルは操作体の表面に配されているため、タッチパネルを操作すると同時に操作体を移動させることができ、操作装置及び電気機器は操作体及びタッチパネルの同時的な操作を受け付けることができる。
また、物体の接触位置を検出可能なタッチパネルを備えているため、より複合的な操作を受け付けることができる。例えば、使用者は、タッチパネルの特定箇所を触りながら操作体を移動させて電気機器の動作を制御することができる。あるいは、複数箇所を触りながら操作体を移動させて電気機器の動作を制御することができる。
In the present invention, the operating body can move in a plurality of directions from a predetermined position. Further, a touch panel for detecting the contact position of the object is arranged on the surface of the operating body, and the operation signal output unit outputs an operation signal according to the moving direction of the operating body and the detection result of the touch panel.
Since the touch panel is arranged on the surface of the operating body, the operating body can be moved simultaneously with the operation of the touch panel, and the operating device and the electric device can accept simultaneous operation of the operating body and the touch panel.
Further, since the touch panel capable of detecting the contact position of the object is provided, more complex operations can be accepted. For example, the user can control the operation of the electric device by moving the operating body while touching a specific part of the touch panel. Alternatively, it is possible to control the operation of the electric device by moving the operating body while touching a plurality of places.

本発明にあっては、タッチパネルにて検出された接触位置の軌跡を記憶する。そして、操作体が移動した場合、記憶された接触位置の記憶に基づいて文字が特定される。従って、タッチパネル及び操作体にて手書き文字入力を行うことができる。   In the present invention, the locus of the contact position detected by the touch panel is stored. When the operating tool moves, a character is specified based on the stored contact position. Therefore, it is possible to input handwritten characters using the touch panel and the operation tool.

本発明にあっては、タッチパネルが複数の接触位置を検出した場合、各接触位置を記憶し、各接触位置の位置関係の変化を特定する。そして、制御手段は、各接触位置の位置関係、例えば各接触位置間の距離変化、操作板に対する位置変化等に基づいて動作を制御する。   In the present invention, when the touch panel detects a plurality of contact positions, each contact position is stored, and a change in the positional relationship of each contact position is specified. The control unit controls the operation based on the positional relationship between the contact positions, for example, a change in distance between the contact positions, a change in position with respect to the operation plate, and the like.

本発明にあっては、タッチパネルが複数の接触位置を検出した場合、各接触位置を記憶し、各接触位置の位置関係の変化を特定する。そして、制御手段は、各接触位置の距離が変化した場合、画像を拡大又は縮小させる。従って、使用者は直感的に画像の拡大及び縮小操作を行うことができる。   In the present invention, when the touch panel detects a plurality of contact positions, each contact position is stored, and a change in the positional relationship of each contact position is specified. The control unit enlarges or reduces the image when the distance between the contact positions changes. Therefore, the user can intuitively perform enlargement and reduction operations of the image.

本発明にあっては、タッチパネルが複数の接触位置を検出した場合、各接触位置を記憶し、各接触位置の位置関係の変化を特定する。そして、制御手段は、各接触位置が所定位置を中心に回転した場合、画像を回転させる。従って、使用者は直感的に画像を回転させる操作を行うことができる。   In the present invention, when the touch panel detects a plurality of contact positions, each contact position is stored, and a change in the positional relationship of each contact position is specified. And a control means rotates an image, when each contact position rotates centering on a predetermined position. Therefore, the user can intuitively perform an operation of rotating the image.

本発明にあっては、タッチパネルが複数の接触位置を検出しており、操作体が移動した場合、制御手段は操作体の移動方向に応じて画像を移動させる。従って、使用者は直感的に画像を移動させる操作を行うことができる。   In the present invention, when the touch panel detects a plurality of contact positions and the operating body moves, the control means moves the image according to the moving direction of the operating body. Therefore, the user can intuitively move the image.

本発明にあっては、タッチパネルが複数の接触位置を検出していて、操作体が移動した場合、制御手段は操作体の移動方向に応じて第1の動作を制御する。また、タッチパネルが単一の接触位置を検出していて、操作体が移動した場合、制御手段は操作体の移動方向に応じて第2の動作を制御する。
従って、操作体にて操作できる動作は、使用者がタッチパネルの一箇所を触りながら操作板を移動させるか、タッチパネルの複数箇所を触りながら操作板を移動させるかによって切り替わる。
In the present invention, when the touch panel detects a plurality of contact positions and the operating body moves, the control means controls the first operation according to the moving direction of the operating body. In addition, when the touch panel detects a single contact position and the operating body moves, the control unit controls the second operation according to the moving direction of the operating body.
Therefore, the operation that can be operated by the operating body is switched depending on whether the user moves the operation plate while touching one part of the touch panel or moves the operation plate while touching a plurality of places on the touch panel.

本発明にあっては、制御手段は、タッチパネルが一の接触位置を検出した場合、操作体の移動方向に応じて第1の動作を制御し、他の接触位置を検出した場合、操作体の移動方向に応じて第2の動作を制御する。
従って、操作体にて操作できる動作は、使用者がタッチパネルを触る位置によって切り替わる。
In the present invention, when the touch panel detects one contact position, the control unit controls the first operation according to the moving direction of the operating body, and when detecting another contact position, The second operation is controlled according to the moving direction.
Therefore, the operation that can be operated by the operating tool is switched depending on the position where the user touches the touch panel.

本発明によれば、操作体の操作と同時にタッチパネルの操作も行うことができ、より複雑で複合的な操作を行うことができる。   According to the present invention, the operation of the touch panel can be performed simultaneously with the operation of the operation body, and a more complicated and complex operation can be performed.

以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、本発明の実施の形態1に係るポインティングデバイスを模式的に示す斜視図、図2は、実施の形態1のポインティングデバイスを模式的に示す平面図、図3は、実施の形態1のポインティングデバイスを模式的に示す側面図である。
Hereinafter, the present invention will be described in detail with reference to the drawings illustrating embodiments thereof.
(Embodiment 1)
FIG. 1 is a perspective view schematically showing a pointing device according to Embodiment 1 of the present invention, FIG. 2 is a plan view schematically showing the pointing device of Embodiment 1, and FIG. 3 is Embodiment 1. It is a side view which shows typically the pointing device of.

図中1は、本発明の実施の形態1に係るポインティングデバイス(操作装置)である。ポインティングデバイス1は、基部11と、基部11に対して所定位置から複数方向へ移動及び押下可能に支持された操作板12と、操作板表面12aに配されたタッチパネル13と、操作板12の移動方向及びタッチパネル13の検出結果に応じた操作信号を出力する操作信号出力コネクタ16とを備えている。   In the figure, reference numeral 1 denotes a pointing device (operation device) according to Embodiment 1 of the present invention. The pointing device 1 includes a base 11, an operation plate 12 supported so as to be movable and depressable in a plurality of directions from a predetermined position with respect to the base 11, a touch panel 13 disposed on the operation plate surface 12 a, and movement of the operation plate 12 An operation signal output connector 16 that outputs an operation signal corresponding to the direction and the detection result of the touch panel 13 is provided.

基部11は偏平な中空略直方体形状をなし、例えば樹脂で形成されている。基部表面11aの略中央部には孔部が形成されており、該孔部から操作桿14が平行移動可能に突出し、操作桿14の先端部には操作板12が設けられている。操作桿14の基端部には、円板部15aが形成され、円板部15aの下面の略中心部分には下方がN極、上方がS極になるように磁石15bが配設されている。円板部15aは、図示しない支持部によって平行移動及び押下可能に支持されている。例えば、円板部15aと支持部との間には、操作板12を押下可能に支持するための弾性体が介装されている。円板部15aの更に下方であって、磁石15bの磁場を検出可能な検出領域内に磁石15bの位置に応じた信号を出力するセンサICが配されている。センサICは、磁石15bの磁場を検出する複数のホール素子15dと、各ホール素子15dの出力に基づいて磁石15bの位置を算出し、操作板12の移動方向に応じた操作信号を出力する検出部15cとを備えている。ホール素子15dを用いることにより、操作板12の押し込みを検出することも可能になる。   The base 11 has a flat, hollow, substantially rectangular parallelepiped shape, and is made of, for example, resin. A hole is formed in a substantially central portion of the base surface 11a, and the operating rod 14 protrudes from the hole so as to be movable in parallel, and an operating plate 12 is provided at the tip of the operating rod 14. A disc portion 15a is formed at the base end portion of the operating rod 14, and a magnet 15b is disposed at a substantially central portion of the lower surface of the disc portion 15a so that the lower portion is an N pole and the upper portion is an S pole. Yes. The disc part 15a is supported by a support part (not shown) so as to be movable and depressable. For example, an elastic body for supporting the operation plate 12 so that it can be pressed is interposed between the disc portion 15a and the support portion. A sensor IC that outputs a signal in accordance with the position of the magnet 15b is disposed in a detection region that is further below the disc portion 15a and that can detect the magnetic field of the magnet 15b. The sensor IC detects a plurality of hall elements 15d that detect the magnetic field of the magnet 15b, calculates the position of the magnet 15b based on the output of each hall element 15d, and outputs an operation signal corresponding to the moving direction of the operation plate 12. Part 15c. By using the Hall element 15d, it is possible to detect the pushing of the operation plate 12.

操作信号出力コネクタ16は、基部11の裏面の適宜箇所に設けられており、操作板12の移動方向及び押下に応じた操作信号と、タッチパネル13の検出結果とを出力するように構成されている。   The operation signal output connector 16 is provided at an appropriate position on the back surface of the base 11 and is configured to output an operation signal corresponding to the moving direction and pressing of the operation plate 12 and a detection result of the touch panel 13. .

図4は、実施の形態1のポインティングデバイス1の操作状態を概念的に示す説明図である。使用者が操作板12の周面12b又は操作板表面12aを基部表面11aに沿った方向へ押圧した場合、操作板12及び磁石15bが平行移動し、各ホール素子15dの出力が変化する。検出部15cは、各ホール素子15dの出力が変化に基づいて、操作盤12の移動方向を算出し、操作板12の移動方向に応じた操作信号を操作信号出力コネクタ16から出力する。また、タッチパネル13に物体が接触した場合、物体の接触位置を検出したタッチパネル13は操作信号を操作信号出力コネクタ16から出力する。   FIG. 4 is an explanatory diagram conceptually illustrating an operation state of the pointing device 1 according to the first embodiment. When the user presses the peripheral surface 12b of the operation plate 12 or the operation plate surface 12a in the direction along the base surface 11a, the operation plate 12 and the magnet 15b move in parallel, and the output of each Hall element 15d changes. The detection unit 15 c calculates the movement direction of the operation panel 12 based on the change in the output of each Hall element 15 d and outputs an operation signal corresponding to the movement direction of the operation plate 12 from the operation signal output connector 16. Further, when an object touches the touch panel 13, the touch panel 13 that has detected the contact position of the object outputs an operation signal from the operation signal output connector 16.

以下、本発明の実施の形態1に係るポインティングデバイス1を映像記録再生装置に搭載した例を説明する。該映像記録再生装置は、映像の録画再生機能に加えて、DVDに記録された静止画データに基づいて、静止画像一覧を表示する機能を備えている。また、記録されたデータのファイル名を手書き文字入力にて更新できるように構成されている。   Hereinafter, an example in which the pointing device 1 according to Embodiment 1 of the present invention is mounted on a video recording / reproducing apparatus will be described. The video recording / playback apparatus has a function of displaying a still image list based on still image data recorded on a DVD in addition to a video recording / playback function. The file name of the recorded data can be updated by handwritten character input.

図5は、本発明の実施の形態1に係る映像記録再生装置の内部構成を示すブロック図である。映像記録再生装置は、各種構成部の動作を制御する制御部36を備えている。   FIG. 5 is a block diagram showing an internal configuration of the video recording / reproducing apparatus according to Embodiment 1 of the present invention. The video recording / reproducing apparatus includes a control unit 36 that controls operations of various components.

制御部36は、CPU、ROM、RAM、タイマー部等を備えたマイクロコンピュータからなり、各種ハードウェアに制御信号を与えて動作を制御する。制御部36には、遠隔操作装置39から送信される赤外線の信号を受信する受信部38、表示部40、操作部41等が設けられている。また、この通信方式は赤外線に限定せず、無線LAN等の無線通信であっても良い。   The control unit 36 includes a microcomputer including a CPU, a ROM, a RAM, a timer unit, and the like, and controls operations by giving control signals to various hardware. The control unit 36 is provided with a reception unit 38 that receives an infrared signal transmitted from the remote operation device 39, a display unit 40, an operation unit 41, and the like. Further, this communication method is not limited to infrared rays, and may be wireless communication such as a wireless LAN.

遠隔操作装置39は、本発明の実施の形態に係るポインティングデバイス1、電源ボタン等を備えており、ポインティングデバイス1及び各種ボタンの操作状態に応じた赤外線の信号を送信する。受信部38は、遠隔操作装置39から送信された赤外線の信号を受信し、操作部の操作状態を検出する。
表示部40は、液晶ディスプレイを備えており、映像記録再生装置の動作状態、時刻等を表示する。
操作部41は、本発明の実施の形態に係るポインティングデバイス1を筐体の適宜箇所に備えており、ポインティングデバイス1の操作に応じて各種構成部の動作を制御する。
The remote control device 39 includes the pointing device 1 according to the embodiment of the present invention, a power button, and the like, and transmits an infrared signal corresponding to the operating state of the pointing device 1 and various buttons. The receiving unit 38 receives the infrared signal transmitted from the remote operation device 39 and detects the operation state of the operation unit.
The display unit 40 includes a liquid crystal display, and displays the operation state, time, and the like of the video recording / reproducing device.
The operation unit 41 includes the pointing device 1 according to the embodiment of the present invention at an appropriate position of the housing, and controls operations of various components according to the operation of the pointing device 1.

図中21は、アンテナAで受信したRF信号(放送信号)を増幅し、特定チャンネルの信号を選択するデジタルチューナであり、デジタルチューナ21は、選択した信号を復調部22に与える。   In the figure, reference numeral 21 denotes a digital tuner that amplifies an RF signal (broadcast signal) received by the antenna A and selects a signal of a specific channel, and the digital tuner 21 gives the selected signal to the demodulator 22.

デジタルチューナ21から与えられた信号は、OFDM(Orthogonal Frequency Division Multiplexing)方式で変調されており、復調部22は、前記信号を、MPEG2TS(Transport Stream)形式のストリームデータに復調し、復調したストリームデータを切換部23に与える。   The signal given from the digital tuner 21 is modulated by an OFDM (Orthogonal Frequency Division Multiplexing) method, and the demodulator 22 demodulates the signal into stream data in the MPEG2TS (Transport Stream) format and demodulates the stream data. Is given to the switching unit 23.

切換部23には、後述のハードディスクドライブ32及びDVDドライブ33がバッファメモリ37を介して接続されており、切換部23は、ハードディスクドライブ32、DVDドライブ33、又は復調部22より与えられた一のストリームデータ又は静止画データを分離部24に与える。また、切換部23は、制御部36より与えられた制御信号に応じて、分離部24に与えるストリームデータを切り換える。なお、DVDドライブ33から与えられるストリームデータはMPEG2PS(Program Stream)形式である。   A hard disk drive 32 and a DVD drive 33 (to be described later) are connected to the switching unit 23 via a buffer memory 37. The switching unit 23 is supplied from the hard disk drive 32, the DVD drive 33, or the demodulating unit 22. Stream data or still image data is given to the separation unit 24. Further, the switching unit 23 switches the stream data to be given to the separation unit 24 in accordance with the control signal given from the control unit 36. The stream data given from the DVD drive 33 is in the MPEG2PS (Program Stream) format.

TS形式及びPS形式のストリームデータは、複数のパケットから構成されている。特にTS形式におけるパケットは、1乃至3番組の映像を構成する時系列順のビデオデータ及び音声データ、並びに番組配列情報(SI: Service Information)等をパケット化したものである。複数のパケットから、時系列順のビデオデータ及び音声データが復元される。   Stream data in the TS format and PS format is composed of a plurality of packets. In particular, a packet in the TS format is obtained by packetizing video data and audio data in chronological order constituting video of one to three programs, program arrangement information (SI: Service Information), and the like. Video data and audio data in time series order are restored from the plurality of packets.

分離部24は、ストリームデータから一の番組のビデオデータ及び音声データに係るパケットを選択し、選択したパケットからなるビデオデータ及び音声データを、夫々図示しないビデオバッファ及び音声バッファに与える。ビデオバッファ及び音声バッファは、分離部24から与えられたビデオデータ及び音声データを夫々所定のタイミングでビデオデコーダ25a及び音声デコーダ26に与える。
また、分離部24は、ストリームデータに含まれる番組配列情報を選択し、選択した番組配列情報をEPG(Electronic Program Guide)デコーダ27に与える。番組配列情報は、放送される番組のタイトル、チャンネル、放送開始時刻、放送終了時刻、及び映画、ドラマ等の番組の属するジャンル等の情報を有している。
更に、分離部24は、後述するようにDVD35から読み出された静止画データが切換部23を介して入力された場合、該静止画データを静止画デコーダ25bに与える。
The separation unit 24 selects a packet related to video data and audio data of one program from the stream data, and supplies the video data and audio data including the selected packet to a video buffer and an audio buffer (not shown), respectively. The video buffer and the audio buffer supply the video data and the audio data supplied from the separation unit 24 to the video decoder 25a and the audio decoder 26, respectively, at a predetermined timing.
Further, the separation unit 24 selects program arrangement information included in the stream data, and provides the selected program arrangement information to an EPG (Electronic Program Guide) decoder 27. The program arrangement information includes information such as a title of a broadcast program, a channel, a broadcast start time, a broadcast end time, and a genre to which a program such as a movie or a drama belongs.
Further, when the still image data read from the DVD 35 is input via the switching unit 23 as will be described later, the separation unit 24 gives the still image data to the still image decoder 25b.

EPGデコーダ27は、分離部24から与えられた番組配列情報に基づいて、番組表の画像データを生成し、生成した番組表の画像データをOSD(On Screen Display)表示処理部28に与える。EPGデコーダ27及びOSD表示処理部28による番組表のOSD表示は、制御部36によって制御される。   The EPG decoder 27 generates image data of the program guide based on the program arrangement information given from the separation unit 24, and gives the generated program guide image data to the OSD (On Screen Display) display processing unit 28. The OSD display of the program guide by the EPG decoder 27 and the OSD display processing unit 28 is controlled by the control unit 36.

ビデオデコーダ25aは、ビデオバッファから与えられたビデオデータを、MPEG2の圧縮伸張方式に従って復調し、復調したビデオデータをOSD表示処理部28に与える。また、ビデオデコーダ25aは、復調したビデオデータをMPEG符号化部31に与える。   The video decoder 25a demodulates the video data supplied from the video buffer according to the MPEG2 compression / decompression method, and supplies the demodulated video data to the OSD display processing unit 28. The video decoder 25 a gives the demodulated video data to the MPEG encoding unit 31.

静止画デコーダ25bは、JPEG等の圧縮伸張方式に従って静止画データを復調し、復調した静止画データをOSD表示処理部28に与える。   The still image decoder 25b demodulates still image data in accordance with a compression / decompression method such as JPEG, and provides the demodulated still image data to the OSD display processing unit 28.

OSD表示処理部28は、ビデオデコーダ25aから与えられたビデオデータの映像に、EPGデコーダ27又は制御部36から与えられた画像データの映像をOSD表示させた映像のビデオデータを生成し、生成したビデオデータを、所定のタイミングでビデオ信号出力部29に与える。また、OSD表示処理部28は、静止画デコーダ25bから静止画データが入力された場合、静止画データに基づいて一又は複数の静止画を並置した映像のビデオデータを生成し、生成したビデオデータをビデオ信号出力部29に与える。   The OSD display processing unit 28 generates video data of video obtained by OSD displaying the video of the image data supplied from the EPG decoder 27 or the control unit 36 on the video of the video data supplied from the video decoder 25a. Video data is given to the video signal output unit 29 at a predetermined timing. In addition, when still image data is input from the still image decoder 25b, the OSD display processing unit 28 generates video data of a video in which one or a plurality of still images are juxtaposed based on the still image data, and the generated video data Is supplied to the video signal output unit 29.

音声デコーダ26は、音声バッファから与えられた音声データを、所定の圧縮伸張方式、例えばAAC(Advanced Audio Coding)又はAC3(Audio Code number 3)の圧縮伸張方式に従って復調し、復調した音声データを、所定のタイミングで音声信号出力部30に与える。また、音声デコーダ26は、復調した音声データをMPEG符号化部31に与える。   The audio decoder 26 demodulates the audio data given from the audio buffer according to a predetermined compression / decompression method, for example, the compression / decompression method of AAC (Advanced Audio Coding) or AC3 (Audio Code number 3), and the demodulated audio data is It is given to the audio signal output unit 30 at a predetermined timing. In addition, the audio decoder 26 provides the demodulated audio data to the MPEG encoding unit 31.

ビデオ信号出力部29及び音声信号出力部30は、OSD表示処理部28及び音声デコーダ26から与えられたビデオデータ及び音声データを、アナログのビデオ信号及び音声信号にDA変換し、DA変換したビデオ信号及び音声信号を外部の図示しない表示装置及びスピーカに出力する。なお、制御部36は、音声信号の信号レベルを上下させることにより、出力される音声の音量を上下させることができる。   The video signal output unit 29 and the audio signal output unit 30 DA convert the video data and audio data given from the OSD display processing unit 28 and the audio decoder 26 into an analog video signal and audio signal, and the DA converted video signal. And the audio signal are output to an external display device and speaker (not shown). Note that the control unit 36 can raise or lower the volume of the output audio by raising or lowering the signal level of the audio signal.

MPEG符号化部31は、ビデオデコーダ25a及び音声デコーダ26から与えられたビデオデータ及び音声データを、MPEG2PS形式のストリームデータに符号化し直し、符号化したストリームデータをバッファメモリ37を介してハードディスクドライブ32又はDVDドライブ33に与える。   The MPEG encoding unit 31 re-encodes the video data and audio data supplied from the video decoder 25 a and the audio decoder 26 into MPEG2PS format stream data, and the encoded stream data via the buffer memory 37 to the hard disk drive 32. Or, it is given to the DVD drive 33.

DVDドライブ33は、ストリームデータを8−16変調する変調部、変調されたストリームデータを、DVD35に記録する光ピックアップを備えている。また、DVDドライブ33は、光ピックアップによってDVD35から読み出したストリームデータ又は静止画データを復調する図示しない復調回路を備えており、復調したストリームデータをバッファメモリ37を介して切換部23に与える。   The DVD drive 33 includes a modulation unit that modulates the stream data 8-16 and an optical pickup that records the modulated stream data on the DVD 35. The DVD drive 33 includes a demodulation circuit (not shown) that demodulates stream data or still image data read from the DVD 35 by an optical pickup, and supplies the demodulated stream data to the switching unit 23 via the buffer memory 37.

ハードディスクドライブ32は、ストリームデータを変調する変調部、変調されたプログラムデータをハードディスク34に記録するヘッド部を備えている。また、ハードディスクドライブ32は、ハードディスク34から読み出したストリームデータ又は静止画データを復調する図示しない復調回路を備えており、復調したストリームデータをバッファメモリ37を介して切換部23に与える。   The hard disk drive 32 includes a modulation unit that modulates stream data and a head unit that records the modulated program data on the hard disk 34. The hard disk drive 32 includes a demodulation circuit (not shown) that demodulates the stream data or still image data read from the hard disk 34, and supplies the demodulated stream data to the switching unit 23 via the buffer memory 37.

以下、本実施の形態に係るポインティングデバイス1を利用した操作方法の具体例を説明する。
図6は、実施の形態1のファイル名の手書き文字入力画面を示した模式図、図7は、実施の形態1のポインティングデバイス1による手書き文字入力操作方法を概念的に示す説明図である。
ハードディスク34又はDVD35に記録された映像データのタイトル名を入力する指示を受け付けた場合、制御部36は、OSD表示処理部28に画像データを与えることにより、図6に示すような文字入力画面を表示する。手書き文字入力画面Bは、白色長方形画像B2と、該白色長方形画像B2の内側上部に表示された入力文字表示枠B1とから構成されている。入力文字表示枠B1の下方の空白部分は、ポインティングデバイス1のタッチパネル13にて手書き入力された文字を表示する領域である。入力文字表示枠内B1には、入力済みの文字、例えば「こんな感じで入力」の文字が表示されている。また、入力文字表示枠内B1には文字の入力位置を示す縦棒のカーソルK1が表示されている。
Hereinafter, a specific example of an operation method using the pointing device 1 according to the present embodiment will be described.
FIG. 6 is a schematic diagram illustrating a handwritten character input screen for a file name according to the first embodiment, and FIG. 7 is an explanatory diagram conceptually illustrating a handwritten character input operation method performed by the pointing device 1 according to the first embodiment.
When receiving an instruction to input the title name of the video data recorded on the hard disk 34 or the DVD 35, the control unit 36 gives image data to the OSD display processing unit 28, thereby displaying a character input screen as shown in FIG. indicate. The handwritten character input screen B is composed of a white rectangular image B2 and an input character display frame B1 displayed on the inner upper portion of the white rectangular image B2. A blank portion below the input character display frame B1 is an area for displaying a character input by handwriting on the touch panel 13 of the pointing device 1. In the input character display frame B1, a character that has been input, for example, a character “input like this” is displayed. In addition, a vertical bar cursor K1 indicating a character input position is displayed in the input character display frame B1.

この状態で使用者が指でタッチパネル13に触れ、文字をなぞるように指を移動させた場合、空白部分には使用者が指でなぞった軌跡に対応する線分、例えば「あ」の文字が表示される。本実施の形態1では、特に平仮名の入力を受け付けるように構成されている。そして、使用者が操作板12を横方向に移動させると、カーソルが左右方向に移動し、移動後のカーソル位置に他の文字を入力することが可能になる。また、使用者が操作板12を上下方向に移動させた場合、入力済みの平仮名をかな漢字変換して表示する。次いで操作板12が押し込まれた場合、かな漢字変換された文字が確定される。   In this state, when the user touches the touch panel 13 with his / her finger and moves his / her finger to trace the character, a line segment corresponding to the locus traced by the user's finger, for example, the character “A” is displayed in the blank portion. Is displayed. In the first embodiment, it is particularly configured to accept input of hiragana. When the user moves the operation panel 12 in the horizontal direction, the cursor moves in the left-right direction, and it becomes possible to input another character at the cursor position after the movement. When the user moves the operation panel 12 in the vertical direction, the input hiragana is converted into kana-kanji characters and displayed. Next, when the operation panel 12 is pushed in, the character that has been converted to kana-kanji is determined.

図8は、実施の形態1の文字入力に係る制御部36の処理手順を示すフローチャートである。まず、制御部36は、ポインティングデバイス1の操作状態を検出する(ステップS11)。具体的には、制御部36は、操作部41のポインティングデバイス1からの信号、又は遠隔操作装置39及び受信部38を介して受信した信号に基づいて、操作板12の移動方向及びタッチパネル13に対する物体の接触位置を検出する。そして、制御部36は、タッチパネル13が接触位置を検出したか否かを判定する(ステップS12)。接触位置を検出したと判定した場合(ステップS12:YES)、制御部36は、接触位置を記憶することによって、接触位置の軌跡を記憶する(ステップS13)。   FIG. 8 is a flowchart illustrating a processing procedure of the control unit 36 related to character input according to the first embodiment. First, the control unit 36 detects the operation state of the pointing device 1 (step S11). Specifically, the control unit 36 determines the movement direction of the operation panel 12 and the touch panel 13 based on a signal from the pointing device 1 of the operation unit 41 or a signal received via the remote operation device 39 and the reception unit 38. The contact position of the object is detected. And the control part 36 determines whether the touch panel 13 detected the contact position (step S12). When it determines with having detected the contact position (step S12: YES), the control part 36 memorize | stores the locus | trajectory of a contact position by memorize | storing a contact position (step S13).

ステップS13の処理を終えた場合、又は接触位置を検出していないと判定した場合(ステップS12:NO)、制御部36は、操作板12が左右方向に移動したか否かを判定する(ステップS14)。左右方向に移動したと判定した場合(ステップS14:YES)、制御部36は、入力済みの平仮名文字を特定し(ステップS15)、カーソルを移動させる(ステップS16)。このとき、左右方向の移動がなくとも、タイムアップ処理により、自動的に入力文字を特定させても良い。   When the process of step S13 is completed, or when it is determined that the contact position is not detected (step S12: NO), the control unit 36 determines whether or not the operation plate 12 has moved in the left-right direction (step S12). S14). When it determines with having moved to the left-right direction (step S14: YES), the control part 36 specifies the input hiragana character (step S15), and moves a cursor (step S16). At this time, the input character may be automatically specified by the time-up process even if there is no movement in the left-right direction.

ステップS16の処理を終えた場合、又は操作板12が左右方向に移動していないと判定した場合(ステップS14:NO)、制御部36は、操作板12が上下方向に移動したか否かを判定する(ステップS17)。操作板12が上下方向に移動したと判定した場合(ステップS17:YES)、制御部36は、入力済みであって未確定の平仮名文字をかな漢字変換する(ステップS18)。   When the process of step S16 is completed, or when it is determined that the operation plate 12 has not moved in the left-right direction (step S14: NO), the control unit 36 determines whether the operation plate 12 has moved in the up-down direction. Determination is made (step S17). When it is determined that the operation panel 12 has moved in the vertical direction (step S17: YES), the control unit 36 performs kana-kanji conversion on the input and unconfirmed hiragana characters (step S18).

ステップS18の処理を終えた場合、又は操作板12が上下方向に移動していないと判定した場合(ステップS17:NO)、制御部36は、操作板12が押し込まれたか否かを判定する(ステップS19)。操作板12が押し込まれていないと判定した場合(ステップS19:NO)、制御部36は、処理をステップS11に戻す。操作板12が押し込まれたと判定した場合(ステップS19:YES)、制御部36は、かな漢字変換された文字を確定し(ステップS20)、処理を終える。
なお、操作板12の押し込みによってかな漢字変換された文字の確定を行うように構成してあるが、タッチパネル13のダブルクリック等によってかな漢字変換された文字の確定処理を行うように構成しても良い。
When the process of step S18 is completed, or when it is determined that the operation plate 12 has not moved up and down (step S17: NO), the control unit 36 determines whether or not the operation plate 12 has been pushed in (step S17: NO). Step S19). When it determines with the operation board 12 not being pushed in (step S19: NO), the control part 36 returns a process to step S11. When it determines with the operation board 12 having been pushed in (step S19: YES), the control part 36 determines the character by which the kana-kanji conversion was carried out (step S20), and complete | finishes a process.
In addition, although it has comprised so that the character by which the kana-kanji conversion was carried out by pushing in the operation board 12 may be performed, you may comprise so that the decision process of the character by which kana-kanji conversion was carried out by the double click of the touch panel 13 etc. may be performed.

本実施の形態1に係るポインティングデバイス1及び映像記録再生装置にあっては、円板状の操作板12上に、タッチパネル13が配されているため、操作板12の操作と同時にタッチパネル13の操作も行うことができ、より複雑で複合的な操作を行うことができる。例えば、一つのポインティングデバイス1を用いて片手で手書き文字入力操作を行うことができる。具体的には、タッチパネル13上をなぞるようにして文字を手書き入力し、操作板12の横方向の移動によって入力した平仮名の特定、かな漢字変換を行うことができる。また、操作板12の押し込みによって入力文字を確定させることができる。   In the pointing device 1 and the video recording / reproducing apparatus according to the first embodiment, since the touch panel 13 is arranged on the disc-shaped operation plate 12, the operation of the touch panel 13 is performed simultaneously with the operation of the operation plate 12. More complex and complex operations. For example, it is possible to perform a handwritten character input operation with one hand using one pointing device 1. Specifically, it is possible to input characters by handwriting on the touch panel 13 and specify the hiragana input by moving the operation panel 12 in the horizontal direction, or perform kana-kanji conversion. Further, the input character can be confirmed by pressing the operation panel 12.

また、操作板12上にタッチパネル13を配しているため、ポインティングデバイス1の操作板12及びタッチパネル13を片手、つまり一つの指で行うことができ、省スペースで効率の良い操作環境を提供することができる。   In addition, since the touch panel 13 is arranged on the operation panel 12, the operation panel 12 and the touch panel 13 of the pointing device 1 can be performed with one hand, that is, with one finger, and a space-saving and efficient operation environment is provided. be able to.

なお、実施の形態1にあっては、円板状の操作板12を説明したが、操作板12の形状は円板状に限定されず、矩形板状、三角形状等、他の形状であっても良い。   In the first embodiment, the disk-shaped operation plate 12 has been described. However, the shape of the operation plate 12 is not limited to the disk shape, and may be other shapes such as a rectangular plate shape or a triangular shape. May be.

また、実施の形態1にあっては、ポインティングデバイス1を備えた電気機器として映像記録再生装置を説明したが、携帯電話、ノートパソコン、音楽再生装置、PDA等の他の電気機器に本発明のポインティングデバイス1を適用しても良い。   In the first embodiment, the video recording / reproducing apparatus has been described as an electric apparatus including the pointing device 1. However, the present invention may be applied to other electric apparatuses such as a mobile phone, a notebook computer, a music reproducing apparatus, and a PDA. The pointing device 1 may be applied.

(実施の形態2)
実施の形態2に係るポインティングデバイス1及び映像記録再生装置の構成は実施の形態1に係るポインティングデバイス1及び映像記録再生装置と同様であり、制御部36の処理手順のみが異なるため以下、上記相違点について説明する。
(Embodiment 2)
The configuration of the pointing device 1 and the video recording / reproducing apparatus according to the second embodiment is the same as that of the pointing device 1 and the video recording / reproducing apparatus according to the first embodiment, and only the processing procedure of the control unit 36 is different. The point will be described.

図9及び図10は、実施の形態2の画像処理操作方法を概念的に示す説明図、図11は、実施の形態2のポインティングデバイス1の操作方法を概念的に示す説明図である。図9及び図10は、図示しない外部の表示装置に表示された複数の静止画Cを示している。また、破線で示した矩形枠は一の静止画Cを選択するためのカーソルK2である。図11(a)に示すように使用者が指でタッチパネル13に触れながら操作板12を移動した場合、図9(a),(b)に示すようにカーソルK2が移動する。なお、カーソルK2に代えてポインタを移動させるように構成しても良い。また、画像処理対象の静止画CがカーソルK2で選択された状態で図11(b)に示すように使用者が指でタッチパネル13に触れながら指を円弧状に動かした場合、図10(a)に示すように静止画Cは回転し、直線方向に動かした場合、図10(b)に示すように静止画Cは拡大及び縮小する。   9 and 10 are explanatory diagrams conceptually showing the image processing operation method of the second embodiment, and FIG. 11 is an explanatory diagram conceptually showing the operation method of the pointing device 1 of the second embodiment. 9 and 10 show a plurality of still images C displayed on an external display device (not shown). A rectangular frame indicated by a broken line is a cursor K2 for selecting one still image C. When the user moves the operation panel 12 while touching the touch panel 13 with a finger as shown in FIG. 11 (a), the cursor K2 moves as shown in FIGS. 9 (a) and 9 (b). Note that the pointer may be moved instead of the cursor K2. Further, when the user moves the finger in an arc shape while touching the touch panel 13 with a finger as shown in FIG. 11B with the still image C to be processed being selected with the cursor K2, as shown in FIG. As shown in FIG. 10B, the still image C rotates and when moved in the linear direction, the still image C is enlarged and reduced as shown in FIG.

図12は、実施の形態2のポインティングデバイス1による画像処理操作に係る制御部36の処理手順を示すフローチャートである。制御部36は、操作部41のポインティングデバイス1からの信号、又は遠隔操作装置39及び受信部38を介して受信した信号に基づいて、ポインティングデバイス1の操作状態を検出する(ステップS31)。   FIG. 12 is a flowchart illustrating a processing procedure of the control unit 36 related to an image processing operation by the pointing device 1 according to the second embodiment. The control unit 36 detects the operation state of the pointing device 1 based on the signal from the pointing device 1 of the operation unit 41 or the signal received through the remote operation device 39 and the receiving unit 38 (step S31).

そして、制御部36は、操作板12が移動しているか否かを判定する(ステップS32)。操作板12が移動していると判定した場合(ステップS32:YES)、制御部36は、図9に示すように操作板12と略同一方向へカーソルK2を移動させ(ステップS33)、処理を終える。   Then, the control unit 36 determines whether or not the operation plate 12 is moving (step S32). If it is determined that the operation plate 12 is moving (step S32: YES), the control unit 36 moves the cursor K2 in substantially the same direction as the operation plate 12 as shown in FIG. 9 (step S33), and performs processing. Finish.

操作板12が移動していないと判定した場合(ステップS32:NO)、制御部36は、タッチパネル13のいずれかが接触位置を検出したか否かを判定する(ステップS34)。接触位置を検出していないと判定した場合(ステップS34:NO)、制御部36は、処理を終える。   When it is determined that the operation plate 12 has not moved (step S32: NO), the control unit 36 determines whether any of the touch panels 13 has detected a contact position (step S34). When it determines with not detecting the contact position (step S34: NO), the control part 36 finishes a process.

タッチパネル13のいずれかが接触位置を検出したと判定した場合(ステップS34:YES)、制御部36は、接触位置を記憶する(ステップS35)。次いで、制御部36は、記憶した接触位置に基づいて、接触位置の軌跡が円弧状であるか否かを判定する(ステップS36)。接触位置の軌跡が円弧状であると判定した場合(ステップS36:YES)、制御部36は、カーソルK2で選択されている静止画Cを回転させ(ステップS37)、処理を終える。   When it is determined that any of the touch panels 13 has detected the contact position (step S34: YES), the control unit 36 stores the contact position (step S35). Next, the control unit 36 determines whether or not the locus of the contact position is an arc shape based on the stored contact position (step S36). When it determines with the locus | trajectory of a contact position being circular arc shape (step S36: YES), the control part 36 rotates the still image C selected with the cursor K2 (step S37), and complete | finishes a process.

接触位置の軌跡が円弧状でないと判定した場合(ステップS36:NO)、制御部36は、接触位置の軌跡が直線状であるか否かを判定する(ステップS38)。接触位置の軌跡が直線状でないと判定した場合(ステップS38:NO)、制御部36は、処理を終える。接触位置の軌跡が直線状であると判定した場合(ステップS38:YES)、制御部36は、カーソルK2で選択されている静止画Cを拡大又は縮小させ(ステップS39)、処理を終える。   When it determines with the locus | trajectory of a contact position not being circular (step S36: NO), the control part 36 determines whether the locus | trajectory of a contact position is linear (step S38). When it determines with the locus | trajectory of a contact position not being linear (step S38: NO), the control part 36 complete | finishes a process. When it determines with the locus | trajectory of a contact position being linear (step S38: YES), the control part 36 expands or reduces the still image C selected with the cursor K2 (step S39), and complete | finishes a process.

次に、本実施の形態に係るポインティングデバイス1を利用した操作方法の他の具体例を説明する。
図13及び図14は、実施の形態2の録画予約操作方法を概念的に示す説明図である。最外の矩形枠及び該矩形枠の内側に表示された一覧は、OSD表示された番組表Dである。一覧はマトリクス状に升目を並置してなる。各行はチャンネルに対応しており、各行の見出しにはチャンネルの番号が表示されている。一覧の各列は放送時刻が対応しており、各列の見出しには17〜22時の時刻が表示されている。一覧を構成している各升目には、対応するチャンネル及び放送時刻で放送される番組の名称、ジャンル等が表示される。また、一の升目を囲む太線の矩形枠は番組を選択するためのカーソルK3である。
Next, another specific example of the operation method using the pointing device 1 according to the present embodiment will be described.
13 and 14 are explanatory diagrams conceptually showing the recording reservation operation method according to the second embodiment. The outermost rectangular frame and the list displayed inside the rectangular frame are the program table D displayed in OSD. The list consists of cells arranged in a matrix. Each row corresponds to a channel, and the channel number is displayed in the heading of each row. Each column of the list corresponds to the broadcast time, and the time of 17: 00-22: 00 is displayed in the heading of each column. In each cell constituting the list, the name, genre, and the like of the program broadcast at the corresponding channel and broadcast time are displayed. A thick rectangular frame surrounding one square is a cursor K3 for selecting a program.

図14(a)は、番組表に表示される放送時間帯をページ変更した状態を示しており、図14(b)は番組表に表示されるチャンネル群をページ変更した状態を示している。
操作板12にはカーソル移動が割り当てられており、使用者が操作板12を移動させた場合、図13に示すようにカーソルK3が移動する。
また、タッチパネル13にはページ移動が割り当てられており、使用者がタッチパネル13の上下左右部分に触った場合、図13及び図14に示すように番組表に表示される放送時間帯又はチャンネル群が変更される
FIG. 14A shows a state in which the page of the broadcast time zone displayed in the program guide has been changed, and FIG. 14B shows a state in which the page of the channel group displayed in the program guide has been changed.
Cursor movement is assigned to the operation plate 12, and when the user moves the operation plate 12, the cursor K3 moves as shown in FIG.
Further, page movement is assigned to the touch panel 13, and when the user touches the upper, lower, left and right portions of the touch panel 13, the broadcast time zone or channel group displayed in the program table is displayed as shown in FIGS. Be changed

図15は、実施の形態2のポインティングデバイス1による録画予約に係る制御部36の処理手順を示すフローチャートである。制御部36は、操作部41のポインティングデバイス1の操作状態を検出する(ステップS51)。   FIG. 15 is a flowchart illustrating a processing procedure of the control unit 36 relating to a recording reservation by the pointing device 1 according to the second embodiment. The control unit 36 detects the operation state of the pointing device 1 of the operation unit 41 (step S51).

そして、制御部36は、操作板12が移動しているか否かを判定する(ステップS52)。操作板12が移動していると判定した場合(ステップS52:YES)、制御部36は、図13に示すように操作板12の移動方向に応じてカーソルK3移動させ(ステップS53)、処理を終える。   Then, the control unit 36 determines whether or not the operation plate 12 is moving (step S52). When it is determined that the operation plate 12 is moving (step S52: YES), the control unit 36 moves the cursor K3 according to the moving direction of the operation plate 12 as shown in FIG. 13 (step S53), and performs the process. Finish.

操作板12が移動していないと判定した場合(ステップS52:NO)、制御部36は、操作板12が基板に押し込まれているか否かを判定する(ステップS54)。操作板12が押し込まれていると判定した場合(ステップS54:YES)、制御部36は、選択されている番組の予約処理を実行し(ステップS55)、処理を終える。   When it is determined that the operation plate 12 has not moved (step S52: NO), the control unit 36 determines whether or not the operation plate 12 is pushed into the substrate (step S54). When it determines with the operation board 12 having been pushed in (step S54: YES), the control part 36 performs the reservation process of the selected program (step S55), and complete | finishes a process.

操作板12が押し込まれていないと判定した場合(ステップS54:NO)、制御部36は、タッチパネル13の上下左右位置に物体が接触しているか否かを判定する(ステップS56)。タッチパネル13の上下左右位置に物体が接触していないと判定した場合(ステップS56:NO)、制御部36は、処理を終える。タッチパネル13の上下左右位置に物体が接触していると判定した場合(ステップS56:YES)、制御部36は、上下左右へ番組表Dのページを移動させ(ステップS57)、処理を終える。例えば、タッチパネル13の上部に物体が接触した場合、制御部36は番組表Dのページを上ページへ移動させ、タッチパネル13の下部に物体が接触した場合、制御部36は番組表Dを下ページへ移動させる。また、タッチパネル13の左部に物体が接触した場合、制御部36は番組表Dを左ページへ移動させ、タッチパネル13の右部に物体が接触した場合、制御部36は番組表Dを右ページへ移動させる。   If it is determined that the operation panel 12 is not pushed in (step S54: NO), the control unit 36 determines whether or not an object is in contact with the vertical and horizontal positions of the touch panel 13 (step S56). When it is determined that no object is in contact with the top, bottom, left, and right positions of the touch panel 13 (step S56: NO), the control unit 36 ends the process. When it is determined that an object is in contact with the top, bottom, left, and right positions of the touch panel 13 (step S56: YES), the control unit 36 moves the page of the program guide D up, down, left, and right (step S57) and ends the process. For example, when an object touches the upper part of the touch panel 13, the control unit 36 moves the page of the program guide D to the upper page, and when an object touches the lower part of the touch panel 13, the control unit 36 sets the program guide D to the lower page. Move to. When an object touches the left part of the touch panel 13, the control unit 36 moves the program guide D to the left page. When an object touches the right part of the touch panel 13, the control unit 36 sets the program guide D to the right page. Move to.

次に、本実施の形態に係るポインティングデバイス1を利用した操作方法の他の具体例を説明する。
図16は、実施の形態2のポインティングデバイス1による音量調整及びチャンネル変更に係る制御部36の処理手順を示すフローチャートである。制御部36は、操作部41のポインティングデバイス1の操作状態を検出する(ステップS71)。
Next, another specific example of the operation method using the pointing device 1 according to the present embodiment will be described.
FIG. 16 is a flowchart illustrating a processing procedure of the control unit 36 related to volume adjustment and channel change by the pointing device 1 according to the second embodiment. The control unit 36 detects the operation state of the pointing device 1 of the operation unit 41 (step S71).

そして、制御部36は、操作板12が移動しているか否かを判定する(ステップS72)。操作板12が移動していないと判定した場合(ステップS72:NO)、制御部36は、処理を終える。操作板12が移動していると判定した場合(ステップS72:YES)、制御部36は、タッチパネル13の左位置に物体が接触しているか否かを判定する(ステップS73)。タッチパネル13の左位置に物体が接触していると判定した場合(ステップS73:YES)、制御部36は、操作板12の移動方向に応じて音量を上下させ(ステップS74)、処理を終える。   Then, the control unit 36 determines whether or not the operation plate 12 is moving (step S72). When it determines with the operation board 12 not moving (step S72: NO), the control part 36 complete | finishes a process. If it is determined that the operation panel 12 is moving (step S72: YES), the control unit 36 determines whether or not an object is in contact with the left position of the touch panel 13 (step S73). When it determines with the object contacting the left position of the touch panel 13 (step S73: YES), the control part 36 raises / lowers a sound volume according to the moving direction of the operation board 12 (step S74), and complete | finishes a process.

タッチパネル13の左部分に物体が接触していないと判定した場合(ステップS73:NO)、制御部36は、タッチパネル13の右位置に物体が接触しているか否かを判定する(ステップS75)。タッチパネル13の右位置に物体が接触していると判定した場合(ステップS75:YES)、制御部36は、操作板12の移動方向に応じてチャンネルを変更し(ステップS76)、処理を終える。タッチパネル13の右部分に物体が接触していないと判定した場合(ステップS75:NO)、制御部36は、図示しないポインタを移動させ(ステップS77)、処理を終える。   When it determines with the object not contacting the left part of the touch panel 13 (step S73: NO), the control part 36 determines whether the object is contacting the right position of the touch panel 13 (step S75). When it determines with the object contacting the right position of the touch panel 13 (step S75: YES), the control part 36 changes a channel according to the moving direction of the operation board 12 (step S76), and complete | finishes a process. When it determines with the object not contacting the right part of the touch panel 13 (step S75: NO), the control part 36 moves the pointer which is not shown in figure (step S77), and complete | finishes a process.

本実施の形態1に係るポインティングデバイス1及び映像記録再生装置にあっては、円板状の操作板12上に、タッチパネル13が配されているため、操作板12の操作と同時にタッチパネル13の操作も行うことができ、より複雑で複合的な操作を片手で行うことができる。例えば、一のポインティングデバイス1によってページ切り替え、カーソル移動、画像の回転、拡大及び縮小等の操作を行うことができる。   In the pointing device 1 and the video recording / reproducing apparatus according to the first embodiment, since the touch panel 13 is arranged on the disc-shaped operation plate 12, the operation of the touch panel 13 is performed simultaneously with the operation of the operation plate 12. More complex and complex operations can be performed with one hand. For example, a single pointing device 1 can perform operations such as page switching, cursor movement, image rotation, enlargement, and reduction.

また、使用者がタッチパネル13に接触した指を円弧状に移動させることによって、画像を回転させることができ、直線方向に移動させることによって、画像を拡大又は縮小させることができる。   In addition, the image can be rotated by moving the finger touching the touch panel 13 in an arc shape, and the image can be enlarged or reduced by moving in a linear direction.

更に、操作板12で操作可能な動作を、タッチパネル13を触る位置によって切り替えることができる。例えば、タッチパネル13の左部分を触りながら操作板12を上下方向に移動させることによって音量を調整し、タッチパネル13の右部分を触りながら操作板12を上下方向に移動させることによってチャンネルを変更することもできる。   Furthermore, the operation that can be operated with the operation panel 12 can be switched depending on the position where the touch panel 13 is touched. For example, the volume is adjusted by moving the operation plate 12 in the vertical direction while touching the left portion of the touch panel 13, and the channel is changed by moving the operation plate 12 in the vertical direction while touching the right portion of the touch panel 13. You can also.

なお、実施の形態1にあっては、ポインティングデバイス1にて画像の回転、拡大及び縮小の画像処理操作、カーソル及びページ移動、並びに音量及びチャンネル調整を行う例を説明したが、ポインティングデバイス1及び電気機器にて操作可能な動作はこれに限定されない。例えば、本実施の形態に係るポインティングデバイス1にてスクロール移動、ビデオゲームにおけるキャラクタの移動、又は視点を移動させるような操作を行うように構成しても良い。   In the first embodiment, the example has been described in which the pointing device 1 performs image processing operations such as image rotation, enlargement and reduction, cursor and page movement, and volume and channel adjustment. The operation that can be performed by the electric device is not limited to this. For example, the pointing device 1 according to the present embodiment may be configured to perform operations such as scrolling, moving a character in a video game, or moving the viewpoint.

また、ポインティングデバイス1にて操作できる電気機器の機能は、画像処理、音量調整等に限定されない。例えば、複数のポインタを含む画像を生成し、操作板12の移動によって第1のポインタを移動させ、タッチパネル13の操作にて第2のポインタを移動させるように構成しても良い。この場合、一つのポインティングデバイス1を用いて片手で複数のポインタを移動させることができる。例えば、ウェブブラウザを操作する場合に、リンク項目を選択するカーソルを操作板12にて移動させ、ウェブブラウザ上のアプリケーションにて表示されるマウスポインタをタッチパネル13にて移動させるように構成するように構成しても良い。   In addition, the functions of the electrical equipment that can be operated with the pointing device 1 are not limited to image processing, volume adjustment, and the like. For example, an image including a plurality of pointers may be generated, the first pointer may be moved by moving the operation panel 12, and the second pointer may be moved by operating the touch panel 13. In this case, a single pointing device 1 can be used to move a plurality of pointers with one hand. For example, when operating the web browser, the cursor for selecting the link item is moved on the operation panel 12 and the mouse pointer displayed in the application on the web browser is moved on the touch panel 13. It may be configured.

実施の形態2に係るポインティングデバイス1及び映像記録再生装置の他の構成、作用及び効果は実施の形態1に係るポインティングデバイス1及び映像記録再生装置の構成、作用及び効果と同様であるため、対応する箇所には同様の符号を付してその詳細な説明を省略する。   The other configurations, operations, and effects of the pointing device 1 and the video recording / playback apparatus according to the second embodiment are the same as the configurations, functions, and effects of the pointing device 1 and the video recording / playback apparatus according to the first embodiment. The same reference numerals are assigned to the parts to be described, and detailed description thereof is omitted.

(実施の形態3)
実施の形態3に係るポインティングデバイス1及び映像記録再生装置の構成は実施の形態1に係るポインティングデバイス1及び映像記録再生装置と同様であり、制御部36の処理手順のみが異なるため以下、上記相違点について説明する。
(Embodiment 3)
The configuration of the pointing device 1 and the video recording / reproducing apparatus according to the third embodiment is the same as that of the pointing device 1 and the video recording / reproducing apparatus according to the first embodiment, and only the processing procedure of the control unit 36 is different. The point will be described.

図17及び図18は、実施の形態3の画像処理操作におけるポインティングデバイス1の操作方法を概念的に示す説明図、図19及び図20は、実施の形態3におけるポインティングデバイス1による画像処理操作に係る制御部36の処理手順を示すフローチャートである。   FIGS. 17 and 18 are explanatory diagrams conceptually showing the operation method of the pointing device 1 in the image processing operation of the third embodiment, and FIGS. 19 and 20 are diagrams for the image processing operation by the pointing device 1 in the third embodiment. It is a flowchart which shows the process sequence of the control part 36 which concerns.

本実施の形態3に係るポインティングデバイス1にて図9及び図10に示した静止画像の拡大、縮小、回転を操作する例を説明する。図17(a)に示すように、操作体を移動させた場合、図9に示したカーソルK2が移動する。
そして、図17(b)に示すように、使用者が画像をつまむようにしてタッチパネル13上の2点を2本の指で触れ、図17(c)に示すように、接触している2点間の距離を拡げ、又は縮めた場合、図10に示すように静止画Cが拡大又は縮小する。
また、図18(a)、(b)に示すように、指が接触している2点を回転させることによって、静止画Cを回転させることができる。
更に、図18(c)に示すように、2本の指を触れたまま、操作板12を移動させた場合、図9に示した画像全体がスクロール移動する。
An example will be described in which the pointing device 1 according to the third embodiment operates enlargement, reduction, and rotation of the still image shown in FIGS. 9 and 10. As shown in FIG. 17A, when the operating body is moved, the cursor K2 shown in FIG. 9 moves.
Then, as shown in FIG. 17B, the user touches two points on the touch panel 13 with two fingers so as to pinch an image, and as shown in FIG. Is expanded or contracted, the still image C is expanded or contracted as shown in FIG.
Further, as shown in FIGS. 18A and 18B, the still image C can be rotated by rotating the two points in contact with the finger.
Furthermore, as shown in FIG. 18C, when the operation panel 12 is moved while touching two fingers, the entire image shown in FIG. 9 is scrolled.

以下、具体的な制御部36の処理内容を図19、図20を用いて説明する。
制御部36は、ポインティングデバイス1の操作状態を検出する(ステップS91)。次いで、制御部36は、接触位置が2箇所であるか否かを判定する(ステップS92)。接触位置が2箇所でないと判定した場合(ステップS92:NO)、制御部36は、操作板12が移動したか否かを判定する(ステップS93)。操作板12が移動していないと判定した場合(ステップS93:NO)、制御部36は、処理を終える。操作板12が移動していると判定した場合(ステップS93:YES)、制御部36は、カーソルK2を移動させ(ステップS94)、処理を終える。
Hereinafter, specific processing contents of the control unit 36 will be described with reference to FIGS. 19 and 20.
The control unit 36 detects the operation state of the pointing device 1 (step S91). Next, the control unit 36 determines whether there are two contact positions (step S92). When it determines with a contact position not being two places (step S92: NO), the control part 36 determines whether the operation board 12 moved (step S93). If it is determined that the operation plate 12 has not moved (step S93: NO), the control unit 36 ends the process. If it is determined that the operation panel 12 is moving (step S93: YES), the control unit 36 moves the cursor K2 (step S94) and ends the process.

接触位置が2箇所であると判定した場合(ステップS92:YES)、制御部36は、各接触位置を記憶する(ステップS95)。そして、制御部36は、記憶した接触位置に基づいて、接触位置間の距離が所定距離以上延長したか否かを判定する(ステップS96)。接触位置が延長したと判定した場合(ステップS96:YES)、制御部36は、カーソルK2で選択されている静止画Cを拡大する(ステップS97)。   When it is determined that there are two contact positions (step S92: YES), the control unit 36 stores each contact position (step S95). And the control part 36 determines whether the distance between contact positions was extended more than predetermined distance based on the memorize | stored contact position (step S96). When it determines with the contact position having been extended (step S96: YES), the control part 36 expands the still image C selected with the cursor K2 (step S97).

ステップS97の処理を終えた場合、又は接触位置間の距離が延長していないと判定した場合(ステップS96:NO)、制御部36は、接触位置間の距離が所定距離以上短縮したか否かを判定する(ステップS98)。接触位置間が短縮したと判定した場合(ステップS98:YES)、制御部36は、カーソルK2で選択されている静止画Cを縮小する(ステップS99)。   When the process of step S97 is completed, or when it is determined that the distance between the contact positions is not extended (step S96: NO), the control unit 36 determines whether the distance between the contact positions is shortened by a predetermined distance or more. Is determined (step S98). If it is determined that the distance between the contact positions has been shortened (step S98: YES), the control unit 36 reduces the still image C selected by the cursor K2 (step S99).

ステップS99の処理を終えた場合、又は接触位置間の距離が短縮していないと判定した場合(ステップS98:NO)、制御部36は、各接触位置が所定位置を中心に右回転したか否かを判定する(ステップS100)。各接触位置が右回転したと判定した場合(ステップS100:YES)、制御部36は、カーソルK2で選択されている静止画Cを右回転させる(ステップS101)。   When the process of step S99 is completed, or when it is determined that the distance between the contact positions is not shortened (step S98: NO), the control unit 36 determines whether or not each contact position has rotated to the right around the predetermined position. Is determined (step S100). When it determines with each contact position having rotated right (step S100: YES), the control part 36 right-rotates the still image C selected with the cursor K2 (step S101).

ステップS101の処理を終えた場合、又は各接触位置が右回転していないと判定した場合(ステップS100:NO)、制御部36は、各接触位置が所定位置を中心に左回転したか否かを判定する(ステップS102)。各接触位置が左回転したと判定した場合(ステップS102:YES)、制御部36は、カーソルK2で選択されている静止画Cを左回転させる(ステップS103)。   When the process of step S101 is completed, or when it is determined that each contact position has not rotated to the right (step S100: NO), the control unit 36 determines whether each contact position has rotated to the left about the predetermined position. Is determined (step S102). When it determines with each contact position having rotated left (step S102: YES), the control part 36 rotates left still image C selected with the cursor K2 (step S103).

ステップS103の処理を終えた場合、又は各接触位置が左回転していないと判定した場合(ステップS102:NO)、制御部36は、操作板12が移動したか否かを判定する(ステップS104)。操作板12が移動していないと判定した場合(ステップS104:NO)、制御部36は、処理を終える。操作板12が移動していると判定した場合(ステップS104:YES)、制御部36は、複数の静止画Cを含む画像全体をスクロール移動させ(ステップS105)、処理を終える。   When the process of step S103 is completed, or when it is determined that the respective contact positions are not rotated to the left (step S102: NO), the control unit 36 determines whether or not the operation plate 12 has moved (step S104). ). When it determines with the operation board 12 not moving (step S104: NO), the control part 36 complete | finishes a process. When it is determined that the operation panel 12 is moving (step S104: YES), the control unit 36 scrolls the entire image including the plurality of still images C (step S105) and ends the process.

実施の形態3に係るポインティングデバイス1及び映像記録再生装置にあっては、タッチパネル13が複数の接触位置を検出し、各接触位置の位置関係に基づいて、画像を拡大、縮小、回転及びスクロール移動するように構成されているため、使用者は直感的に画像処理操作を行うことができる。
より具体的には、使用者は画像をつまむようにしてタッチパネル13の2点を触り、該2点間の距離を広げることによって画像を拡大させ、該2点間の距離を縮めることによって画像を縮小させることができる。従って、使用者は直感的に画像を拡大及び縮小させることができる。
また、使用者は画像をつまむようにしてタッチパネル13の2点を触り、接触箇所の2点を回転させることによって画像を回転させることができる。従って、使用者は直感的に画像を回転させることができる。
更に、使用者は画像をつまむようにしてタッチパネル13の2点を触り、操作板12を移動させることによって画像全体をスクロール移動させることができる。従って、使用者は直感的に画像をスクロール移動させることができる。
更にまた、タッチパネル13の1点を触りながら操作板12を移動させた場合、カーソルを移動させ、タッチパネル13の2点を触りながら操作板12を移動させた場合、画像全体をスクロールさせるように構成してあるため、タッチパネル13に接触する物体(指)の数に応じて、操作板13で操作可能な動作を切り替えることができる。
In the pointing device 1 and the video recording / reproducing apparatus according to the third embodiment, the touch panel 13 detects a plurality of contact positions, and enlarges, reduces, rotates, and scrolls the image based on the positional relationship between the contact positions. Thus, the user can intuitively perform the image processing operation.
More specifically, the user touches two points on the touch panel 13 while pinching the image, enlarges the image by increasing the distance between the two points, and reduces the image by reducing the distance between the two points. be able to. Therefore, the user can enlarge and reduce the image intuitively.
Also, the user can rotate the image by pinching the image and touching two points on the touch panel 13 and rotating the two points of contact. Accordingly, the user can intuitively rotate the image.
Further, the user can scroll the entire image by touching two points on the touch panel 13 so as to pinch the image and moving the operation panel 12. Accordingly, the user can intuitively scroll the image.
Furthermore, when the operation plate 12 is moved while touching one point on the touch panel 13, the cursor is moved, and when the operation plate 12 is moved while touching two points on the touch panel 13, the entire image is scrolled. Therefore, the operation that can be operated with the operation panel 13 can be switched according to the number of objects (finger) that touch the touch panel 13.

なお、実施の形態3にあってはDVD35に記録された静止画の拡大、縮小、回転等の処理を説明したが、操作対象はこれに限定されない。   In the third embodiment, the process of enlarging, reducing, rotating, etc. the still image recorded on the DVD 35 has been described, but the operation target is not limited to this.

例えば、マルチウィンドウ操作環境において、複数のウィンドウ画像を操作するポインティングデバイスとして、本実施の形態に係るポインティングデバイスを適用しても良い。例えば、ポインティングデバイス上のタッチパネルを2本の指で触ると、そのときに選択されているウィンドウ画像が移動対象として選択され、タッチパネルに2本の指を触れたまま、操作板を移動させることにより、ウィンドウ画像を移動させ、2本の指がタッチパネルから離れた場合、移動対象の解除が行われるように構成しても良い。この場合も、一つのポインティングデバイスを用いて片手でマルチウィンドウ操作を行うことができる。   For example, the pointing device according to the present embodiment may be applied as a pointing device that operates a plurality of window images in a multi-window operation environment. For example, when the touch panel on the pointing device is touched with two fingers, the window image selected at that time is selected as the movement target, and the operation panel is moved while the two fingers are touching the touch panel. Alternatively, when the window image is moved and two fingers are separated from the touch panel, the movement target may be released. Also in this case, a multi-window operation can be performed with one hand using a single pointing device.

実施の形態3に係るポインティングデバイス1及び映像記録再生装置の他の構成、作用及び効果は実施の形態1に係るポインティングデバイス1及び映像記録再生装置の構成、作用及び効果と同様であるため、対応する箇所には同様の符号を付してその詳細な説明を省略する。   The other configurations, operations, and effects of the pointing device 1 and the video recording / playback apparatus according to the third embodiment are the same as the configurations, functions, and effects of the pointing device 1 and the video recording / playback apparatus according to the first embodiment. The same reference numerals are assigned to the parts to be described, and detailed description thereof is omitted.

(実施の形態4)
図21は、本発明の実施の形態4に係る携帯電話機の内部構成を示すブロック図、図22は実施の形態4の携帯電話を模式的に示す正面図である。実施の形態4に係る携帯電話機は、本発明に係るポインティングデバイス1を備えており、実施の形態1〜3同様、複雑で複合的な操作が可能になる。
(Embodiment 4)
FIG. 21 is a block diagram showing the internal configuration of the mobile phone according to Embodiment 4 of the present invention, and FIG. 22 is a front view schematically showing the mobile phone of Embodiment 4. The mobile phone according to the fourth embodiment includes the pointing device 1 according to the present invention, and complex and complex operations are possible as in the first to third embodiments.

本発明の実施の形態4に係る携帯電話機は、制御部50、無線通信及びテレビジョン放送信号の受信を行うためのアンテナ51、分波部52、無線部53、通信制御部54、チューナ55、信号処理部56、及び表示部60を備えている。   A mobile phone according to Embodiment 4 of the present invention includes a control unit 50, an antenna 51 for receiving wireless communication and a television broadcast signal, a demultiplexing unit 52, a wireless unit 53, a communication control unit 54, a tuner 55, A signal processing unit 56 and a display unit 60 are provided.

制御部50は、例えばCPUを備えたマイクロコンピュータであり、携帯電話機を構成する各構成部の動作を制御する。制御部50には、操作部61が接続されており、制御部50は、操作部61の操作状態に応じて動作を制御する。   The control unit 50 is, for example, a microcomputer provided with a CPU, and controls the operation of each component constituting the mobile phone. An operation unit 61 is connected to the control unit 50, and the control unit 50 controls the operation according to the operation state of the operation unit 61.

操作部61は、本発明の実施の形態に係るポインティングデバイス1、通話ボタン、数字ボタン等を備えている。ポインティングデバイス1の構成は、実施の形態1と同様である。   The operation unit 61 includes the pointing device 1 according to the embodiment of the present invention, a call button, a numeric button, and the like. The configuration of the pointing device 1 is the same as that of the first embodiment.

アンテナ51は、無線電波を介して基地局と無線通信を行い、音声データ、文字データ及び画像データ等を送受信する。また、アンテナ51はテレビジョン信号も受信することができる。   The antenna 51 performs radio communication with the base station via radio waves, and transmits and receives voice data, character data, image data, and the like. The antenna 51 can also receive a television signal.

分波部52は、アンテナ51にて受信した無線信号と放送信号とを分離し、分離された無線信号を無線部53に送り、分離された放送信号をチューナ55に送る。   The demultiplexing unit 52 separates the radio signal and the broadcast signal received by the antenna 51, sends the separated radio signal to the radio unit 53, and sends the separated broadcast signal to the tuner 55.

通信制御部54は無線部53の動作を制御する。通信制御部54は、受信時においては基地局からアンテナ51を介して受信した無線を無線部53に復調させ、復調された信号を制御部50に与える。また、通信制御部54は、送信時においては制御部50から送られた各種データを所定のプロトコルに基づいて変調し、変調した無線信号を分波部52を介してアンテナ51から送信する。   The communication control unit 54 controls the operation of the wireless unit 53. The communication control unit 54 causes the radio unit 53 to demodulate the radio received from the base station via the antenna 51 at the time of reception, and gives the demodulated signal to the control unit 50. Further, at the time of transmission, the communication control unit 54 modulates various data transmitted from the control unit 50 based on a predetermined protocol, and transmits the modulated radio signal from the antenna 51 via the demultiplexing unit 52.

チューナ55は、放送信号から一のチャンネルを選択及び増幅し、選択された信号を信号処理部56に送る。
信号処理部56は、チューナ55より送られた信号から映像信号、音声信号に分離し、分離された映像信号は表示部60に、音声信号は図示しないスピーカから出力される。
The tuner 55 selects and amplifies one channel from the broadcast signal, and sends the selected signal to the signal processing unit 56.
The signal processing unit 56 separates the signal sent from the tuner 55 into a video signal and an audio signal, and the separated video signal is output to the display unit 60 and the audio signal is output from a speaker (not shown).

また、携帯電話機は、撮像部57、画像処理部58、メモリ59、記憶媒体62を備えている。   The mobile phone also includes an imaging unit 57, an image processing unit 58, a memory 59, and a storage medium 62.

撮像部57はレンズ、撮像素子、例えばCCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等を備えている。撮像部57は撮像して得た画像データを画像処理部58に逐次送信する。   The imaging unit 57 includes a lens, an imaging device, for example, a charge coupled device (CCD) image sensor, a complementary metal oxide semiconductor (CMOS) image sensor, and the like. The imaging unit 57 sequentially transmits image data obtained by imaging to the image processing unit 58.

画像処理部58は、画像データに対して補完処理等のエフェクト処理を実行し、メモリ59に送る。表示部60は、メモリ59に書き込まれた画像データに基づいて、画像を逐次表示する。   The image processing unit 58 performs effect processing such as complement processing on the image data, and sends it to the memory 59. The display unit 60 sequentially displays images based on the image data written in the memory 59.

記録媒体62はフラッシュメモリのような不揮発性の記憶手段である。制御部50は、撮像部57にて撮像された静止画若しくは動画の画像データ、又は放送信号から得られた映像及び音声を記録媒体62に記録する機能を備えている。また、制御部50は、実施の形態1又は2同様、記録した映像のサムネイル表示、静止画の表示等を行うことができ、ポインティングデバイス1の操作に応じてカーソル移動、ページ移動、静止画の回転、拡大及び縮小を行うことができる。   The recording medium 62 is a non-volatile storage unit such as a flash memory. The control unit 50 has a function of recording, on the recording medium 62, still image or moving image image data captured by the imaging unit 57, or video and audio obtained from a broadcast signal. In addition, the control unit 50 can perform thumbnail display of recorded video, display of a still image, and the like as in the first or second embodiment, and the cursor movement, page movement, and still image display according to the operation of the pointing device 1. Rotation, enlargement and reduction can be performed.

実施の形態4にあっては、実施の形態1〜3同様、操作板の操作と同時にタッチパネルの操作も行うことができ、より複雑で複合的な操作を行うことができる。   In the fourth embodiment, as in the first to third embodiments, the operation of the touch panel can be performed simultaneously with the operation of the operation plate, and a more complicated and complex operation can be performed.

実施の形態4に係るポインティングデバイス1の他の構成、作用及び効果は実施の形態1に係るポインティングデバイス1の構成、作用及び効果と同様であるため、対応する箇所には同様の符号を付してその詳細な説明を省略する。   The other configurations, operations, and effects of the pointing device 1 according to the fourth embodiment are the same as the configurations, operations, and effects of the pointing device 1 according to the first embodiment. Detailed description thereof will be omitted.

本発明の実施の形態1に係るポインティングデバイスを模式的に示す斜視図である。It is a perspective view which shows typically the pointing device which concerns on Embodiment 1 of this invention. 実施の形態1のポインティングデバイスを模式的に示す平面図である。FIG. 3 is a plan view schematically showing the pointing device of the first embodiment. 実施の形態1のポインティングデバイスを模式的に示す側面図である。FIG. 3 is a side view schematically showing the pointing device of the first embodiment. 実施の形態1のポインティングデバイスの操作状態を概念的に示す説明図である。FIG. 3 is an explanatory diagram conceptually showing an operation state of the pointing device according to the first embodiment. 実施の形態1に係る映像記録再生装置の内部構成を示すブロック図である。1 is a block diagram showing an internal configuration of a video recording / reproducing apparatus according to Embodiment 1. FIG. 実施の形態1のファイル名の手書き文字入力画面を示した模式図である。3 is a schematic diagram illustrating a handwritten character input screen for a file name according to Embodiment 1. FIG. 実施の形態1のポインティングデバイスによる手書き文字入力操作方法を概念的に示す説明図である。FIG. 3 is an explanatory diagram conceptually showing a handwritten character input operation method using the pointing device of the first embodiment. 実施の形態1の文字入力に係る制御部の処理手順を示すフローチャートである。3 is a flowchart illustrating a processing procedure of a control unit related to character input according to the first embodiment. 実施の形態2の画像処理操作方法を概念的に示す説明図である。10 is an explanatory diagram conceptually showing an image processing operation method according to Embodiment 2. FIG. 実施の形態2の画像処理操作方法を概念的に示す説明図である。10 is an explanatory diagram conceptually showing an image processing operation method according to Embodiment 2. FIG. 実施の形態2のポインティングデバイスの操作方法を概念的に示す説明図である。FIG. 9 is an explanatory diagram conceptually showing a method for operating a pointing device according to a second embodiment. 実施の形態2のポインティングデバイスによる画像処理操作に係る制御部の処理手順を示すフローチャートである。10 is a flowchart illustrating a processing procedure of a control unit related to an image processing operation by the pointing device according to the second embodiment. 実施の形態2の録画予約操作方法を概念的に示す説明図である。6 is an explanatory diagram conceptually showing a recording reservation operation method according to Embodiment 2. FIG. 実施の形態2の録画予約操作方法を概念的に示す説明図である。6 is an explanatory diagram conceptually showing a recording reservation operation method according to Embodiment 2. FIG. 実施の形態2のポインティングデバイスによる録画予約に係る制御部の処理手順を示すフローチャートである。10 is a flowchart illustrating a processing procedure of a control unit related to a recording reservation by the pointing device according to the second embodiment. 実施の形態2のポインティングデバイスによる音量調整及びチャンネル変更に係る制御部の処理手順を示すフローチャートである。10 is a flowchart illustrating a processing procedure of a control unit related to volume adjustment and channel change by the pointing device according to the second embodiment. 実施の形態3の画像処理操作におけるポインティングデバイスの操作方法を概念的に示す説明図である。FIG. 10 is an explanatory diagram conceptually illustrating a pointing device operation method in an image processing operation according to a third embodiment. 実施の形態3の画像処理操作におけるポインティングデバイスの操作方法を概念的に示す説明図である。FIG. 10 is an explanatory diagram conceptually illustrating a pointing device operation method in an image processing operation according to a third embodiment. 実施の形態3におけるポインティングデバイスによる画像処理操作に係る制御部の処理手順を示すフローチャートである。10 is a flowchart illustrating a processing procedure of a control unit related to an image processing operation by a pointing device according to a third embodiment. 実施の形態3におけるポインティングデバイスによる画像処理操作に係る制御部の処理手順を示すフローチャートである。10 is a flowchart illustrating a processing procedure of a control unit related to an image processing operation by a pointing device according to a third embodiment. 本発明の実施の形態4に係る携帯電話機の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the mobile telephone based on Embodiment 4 of this invention. 実施の形態4の携帯電話を模式的に示す正面図である。FIG. 10 is a front view schematically showing a mobile phone according to a fourth embodiment. 従来のポインティングデバイスを模式的に示す横断面図である。It is a cross-sectional view schematically showing a conventional pointing device.

符号の説明Explanation of symbols

1 ポインティングデバイス
11 基部
12 操作板
13 タッチパネル
14 操作桿
15a 円板部
15b 磁石
15c 検出部
15d ホール素子
16 操作信号出力コネクタ
36 制御部
DESCRIPTION OF SYMBOLS 1 Pointing device 11 Base 12 Operation board 13 Touch panel 14 Operation rod 15a Disk part 15b Magnet 15c Detection part 15d Hall element 16 Operation signal output connector 36 Control part

Claims (9)

所定位置から複数方向への移動が可能な操作体を備え、該操作体の移動方向に応じた操作信号を出力する操作装置において、
前記操作体の表面に配されており、物体の接触位置を検出するタッチパネルと、
該タッチパネルの検出結果及び操作体の移動方向に応じて操作信号を出力する操作信号出力部と
を備えることを特徴とする操作装置。
In an operating device comprising an operating body capable of moving in a plurality of directions from a predetermined position, and outputting an operation signal corresponding to the moving direction of the operating body,
A touch panel that is arranged on the surface of the operating body and detects a contact position of the object;
An operation signal output unit that outputs an operation signal according to a detection result of the touch panel and a moving direction of the operation body.
所定位置から複数方向への移動が可能な操作体を備え、該操作体の移動方向に応じて動作する電気機器において、
前記操作体の表面に配されており、物体の接触位置を検出するタッチパネルと、
該タッチパネルの検出結果及び操作体の移動方向に応じて動作を制御する制御手段と
を備えることを特徴とする電気機器。
In an electrical device comprising an operating body capable of moving in a plurality of directions from a predetermined position and operating in accordance with the moving direction of the operating body,
A touch panel that is arranged on the surface of the operating body and detects a contact position of the object;
An electrical apparatus comprising: control means for controlling an operation according to a detection result of the touch panel and a moving direction of the operating body.
前記タッチパネルにて検出された接触位置の軌跡を記憶する手段と、
前記操作体が移動した場合、記憶された接触位置の軌跡に基づいて、文字を特定する手段と
を備えることを特徴とする請求項2に記載の電気機器。
Means for storing a locus of a contact position detected by the touch panel;
The electrical apparatus according to claim 2, further comprising: means for specifying a character based on a stored locus of a contact position when the operating body moves.
前記タッチパネルが複数の接触位置を検出した場合、検出された各接触位置を記憶する手段と、
記憶した接触位置に基づいて、各接触位置の位置関係の変化を特定する手段と
を備え、
前記制御手段は、
各接触位置の位置関係の変化に基づいて、動作を制御する手段を備える
ことを特徴とする請求項2又は請求項3に記載の電気機器。
Means for storing each detected contact position when the touch panel detects a plurality of contact positions;
Means for identifying a change in the positional relationship between the contact positions based on the stored contact positions;
The control means includes
The electric device according to claim 2 or 3, further comprising means for controlling an operation based on a change in a positional relationship between each contact position.
画像データに基づいて画像を拡大又は縮小させる手段を備え、
前記制御手段は、
各接触位置間の距離が変化した場合、画像を拡大又は縮小させるようにしてある
ことを特徴とする請求項4に記載の電気機器。
Means for enlarging or reducing the image based on the image data;
The control means includes
The electric device according to claim 4, wherein the image is enlarged or reduced when the distance between the contact positions changes.
画像データに基づいて画像を回転させる手段を備え、
前記制御手段は、
各接触位置が所定位置を中心に回転した場合、画像を回転させるようにしてある
ことを特徴とする請求項4又は請求項5に記載の電気機器。
Means for rotating the image based on the image data;
The control means includes
The electric device according to claim 4 or 5, wherein an image is rotated when each contact position rotates around a predetermined position.
前記画像データに基づいて画像を移動させる手段を備え、
前記制御手段は、
前記タッチパネルが複数の接触位置を検出しており、前記操作体が移動した場合、該操作体の移動方向に応じて画像を移動させるようにしてある
ことを特徴とする請求項2から請求項6のいずれか一つに記載の電気機器。
Means for moving the image based on the image data;
The control means includes
The touch panel detects a plurality of contact positions, and when the operating body moves, the image is moved according to the moving direction of the operating body. Electrical equipment as described in any one of.
前記制御手段は、
前記タッチパネルが複数の接触位置を検出しており、前記操作体が前記所定位置から移動した場合、前記操作体の移動方向に応じて第1の動作を制御する手段と、
前記タッチパネルが単一の接触位置を検出しており、前記操作体が前記所定位置から移動した場合、前記操作体の移動方向に応じて第2の動作を制御する手段と
を備えることを特徴とする請求項2から請求項7のいずれか一つに記載の電気機器。
The control means includes
Means for controlling a first operation in accordance with a moving direction of the operating body when the touch panel detects a plurality of contact positions and the operating body has moved from the predetermined position;
The touch panel detects a single contact position, and when the operation body moves from the predetermined position, the touch panel includes means for controlling a second operation according to a moving direction of the operation body. The electrical device according to any one of claims 2 to 7.
前記制御手段は、
前記タッチパネルが一の接触位置を検出しており、前記操作体が前記所定位置から移動した場合、前記操作体の移動方向に応じて第1の動作を制御する手段と、
前記タッチパネルが他の接触位置を検出しており、前記操作体が前記所定位置から移動した場合、前記操作体の移動方向に応じて第2の動作を制御する手段と
を備えることを特徴とする請求項2から請求項7のいずれか一つに記載の電気機器。
The control means includes
Means for controlling a first operation in accordance with a moving direction of the operating body when the touch panel detects one contact position and the operating body moves from the predetermined position;
The touch panel detects another contact position, and when the operating body moves from the predetermined position, the touch panel includes means for controlling a second operation according to a moving direction of the operating body. The electrical device according to any one of claims 2 to 7.
JP2007187473A 2007-07-18 2007-07-18 Operation device and electric apparatus Pending JP2009026001A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007187473A JP2009026001A (en) 2007-07-18 2007-07-18 Operation device and electric apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007187473A JP2009026001A (en) 2007-07-18 2007-07-18 Operation device and electric apparatus

Publications (1)

Publication Number Publication Date
JP2009026001A true JP2009026001A (en) 2009-02-05

Family

ID=40397761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007187473A Pending JP2009026001A (en) 2007-07-18 2007-07-18 Operation device and electric apparatus

Country Status (1)

Country Link
JP (1) JP2009026001A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010107009A1 (en) * 2009-03-17 2010-09-23 日本電気株式会社 Input device for portable electronic device, control method therfor, and program
JP2011197079A (en) * 2010-03-17 2011-10-06 Canon Inc Image processing apparatus, and control method and program for image processing apparatus
JP2012018470A (en) * 2010-07-06 2012-01-26 Univ Kanagawa Electronic blackboard
JP2012234278A (en) * 2011-04-28 2012-11-29 Sakae Tsushin Kogyo Kk Joystick and position input controller
JP2013222366A (en) * 2012-04-18 2013-10-28 Tokai Rika Co Ltd Operation input device
JP2014535102A (en) * 2011-10-20 2014-12-25 株式会社ソニー・コンピュータエンタテインメント Control stick with multiple sensors to improve input sensitivity and function
US8941585B2 (en) 2012-01-26 2015-01-27 Denso Corporation Input device with touch input function
JP2015046078A (en) * 2013-08-29 2015-03-12 レノボ・シンガポール・プライベート・リミテッド Pointing device, notebook type personal computer, and operation method
JP2015191582A (en) * 2014-03-28 2015-11-02 株式会社日本自動車部品総合研究所 operation input device
JP2015215742A (en) * 2014-05-09 2015-12-03 株式会社デンソー Display operation system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11345082A (en) * 1998-04-01 1999-12-14 Fujitsu Takamisawa Component Ltd Mouse
JP2002149339A (en) * 2000-11-09 2002-05-24 Fuji Xerox Co Ltd Information processor, information processing method and recording medium
JP2002182847A (en) * 2000-12-12 2002-06-28 Hitachi Ltd Information processor having touch pad
JP2003323259A (en) * 2002-05-02 2003-11-14 Nec Corp Information processing apparatus
JP2003348370A (en) * 2002-05-27 2003-12-05 Canon Inc Remote control apparatus and display device control system
JP2006350736A (en) * 2005-06-16 2006-12-28 Tokai Rika Co Ltd Pointer display controller and pointing device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11345082A (en) * 1998-04-01 1999-12-14 Fujitsu Takamisawa Component Ltd Mouse
JP2002149339A (en) * 2000-11-09 2002-05-24 Fuji Xerox Co Ltd Information processor, information processing method and recording medium
JP2002182847A (en) * 2000-12-12 2002-06-28 Hitachi Ltd Information processor having touch pad
JP2003323259A (en) * 2002-05-02 2003-11-14 Nec Corp Information processing apparatus
JP2003348370A (en) * 2002-05-27 2003-12-05 Canon Inc Remote control apparatus and display device control system
JP2006350736A (en) * 2005-06-16 2006-12-28 Tokai Rika Co Ltd Pointer display controller and pointing device

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010107009A1 (en) * 2009-03-17 2010-09-23 日本電気株式会社 Input device for portable electronic device, control method therfor, and program
JP2011197079A (en) * 2010-03-17 2011-10-06 Canon Inc Image processing apparatus, and control method and program for image processing apparatus
JP2012018470A (en) * 2010-07-06 2012-01-26 Univ Kanagawa Electronic blackboard
JP2012234278A (en) * 2011-04-28 2012-11-29 Sakae Tsushin Kogyo Kk Joystick and position input controller
JP2014535102A (en) * 2011-10-20 2014-12-25 株式会社ソニー・コンピュータエンタテインメント Control stick with multiple sensors to improve input sensitivity and function
US8941585B2 (en) 2012-01-26 2015-01-27 Denso Corporation Input device with touch input function
JP2013222366A (en) * 2012-04-18 2013-10-28 Tokai Rika Co Ltd Operation input device
US9335846B2 (en) 2012-04-18 2016-05-10 Kabushiki Kaisha Tokai Rika Denki Seisakusho Operation input using touch screen and operation lever
JP2015046078A (en) * 2013-08-29 2015-03-12 レノボ・シンガポール・プライベート・リミテッド Pointing device, notebook type personal computer, and operation method
JP2015191582A (en) * 2014-03-28 2015-11-02 株式会社日本自動車部品総合研究所 operation input device
JP2015215742A (en) * 2014-05-09 2015-12-03 株式会社デンソー Display operation system

Similar Documents

Publication Publication Date Title
JP2009026001A (en) Operation device and electric apparatus
US10007424B2 (en) Mobile client device, operation method, recording medium, and operation system
JP5102899B2 (en) Video display device and video display method
JP5398719B2 (en) User command input method, and video equipment and input equipment to which the method is applied
CN102375538B (en) Display device and control method thereof
US20080176604A1 (en) Mobile communication device and method of controlling operation of the mobile communication device
JP4273154B2 (en) User interface system, user interface device, and electronic device control method
US8063884B2 (en) Information processing apparatus, display control method, and program for controlling a display of the information processing apparatus based on an input received from a remote controller
US8850356B2 (en) Information processing system and information processing apparatus
US9158442B2 (en) Electronic device and interface method for configuring menu using the same
JP2004040656A (en) Image display system, image display method, and display device
EP2613544A1 (en) Switching a user input operation menu mode on an electronic apparatus controlling an external apparatus in accordance with a state of the external apparatus
JPWO2011037188A1 (en) Display device, program, and recording medium
JP2009026153A (en) Operation device and electric apparatus
US20120127181A1 (en) Av device
JP2007281659A (en) Electronic information display system, electronic information display device and remote controller
JP2008042294A (en) Broadcast receiving device
JP2007156922A (en) Process instruction receipt method, electronic apparatus, and computer program
JP2008165574A (en) Input device, transmitting and receiving system, input processing method and control program
US9013420B2 (en) Display device, display program, and display method
JP2007264919A (en) Input device and display device using it
JP2009026661A (en) Operating device and electric apparatus
JP2009060483A (en) Information processing system, remote controller, and information processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110906