JP2009164757A - Image display apparatus and imaging apparatus - Google Patents

Image display apparatus and imaging apparatus Download PDF

Info

Publication number
JP2009164757A
JP2009164757A JP2007340075A JP2007340075A JP2009164757A JP 2009164757 A JP2009164757 A JP 2009164757A JP 2007340075 A JP2007340075 A JP 2007340075A JP 2007340075 A JP2007340075 A JP 2007340075A JP 2009164757 A JP2009164757 A JP 2009164757A
Authority
JP
Japan
Prior art keywords
touch sensor
image
output
signal
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007340075A
Other languages
Japanese (ja)
Inventor
Akiyoshi Jin
昭義 神
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2007340075A priority Critical patent/JP2009164757A/en
Publication of JP2009164757A publication Critical patent/JP2009164757A/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display apparatus (50) that reliably performs various operations even if a touch sensor is arranged in a screen frame. <P>SOLUTION: The apparatus includes: a cabinet (2a) with a window unit (2b1); an image display unit (2c) contained in the cabinet so as to see an image through the window unit; a first touch sensor (8) and a second touch sensor (18) arranged in the cabinet so that touch planes (8a) are exposed in a slender shape along one side (2b1-L) of an opening unit in the cabinet; and a control unit (12) which changes and displays an image based on an output signal from the first sensor. The control unit changes variation of the image depending on whether the signal is output from the first touch sensor while there is no output from the second touch sensor, or the signal is output from the first touch sensor while there is output from the second touch sensor. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像表示装置及び撮像装置に係り、特に、画面に表示された選択対象領域の選択などの入力操作をタッチセンサで行う画像表示装置及び撮像装置に関する。   The present invention relates to an image display apparatus and an imaging apparatus, and more particularly, to an image display apparatus and an imaging apparatus that perform input operations such as selection of a selection target area displayed on a screen with a touch sensor.

画像を表示する表示部を備えた画像表示装置として、ノート型のパーソナルコンピュータ(PC),携帯電話,携帯情報端末(PDA:Personal Digital Assistants),ポータブルナビゲーション装置(PND:Personal Navigation Device),ビデオカメラ等の撮像装置,及びゲーム機などが知られている。   As an image display device having a display unit for displaying an image, a notebook personal computer (PC), a mobile phone, a personal digital assistant (PDA), a portable navigation device (PND: Personal Navigation Device), a video camera Imaging devices such as these, and game machines are known.

これらの装置は、その多くが可搬型として商品化されており、可搬型として、装置自体のサイズはできるだけ小さく、反面、表示画面はできるだけ大きくすることが市場から求められている。   Many of these devices are commercialized as portable types, and as a portable type, the size of the device itself is as small as possible, while the display screen is required to be as large as possible from the market.

この要求に応えるため、装置筐体の表示部を備えた面において、その面に対する表示画面の占める面積比率は、可能な限り高められる。
換言するならば、画面を囲う枠の幅が可能な限り狭められる。
In order to meet this requirement, the area ratio of the display screen to the surface of the device housing including the display unit is increased as much as possible.
In other words, the width of the frame surrounding the screen is made as narrow as possible.

一方、表示部を備えた面には、画面と共に、画面に表示されたいわゆるアイコンなどの選択対照領域の選択,その選択の決定,表示画面のスクロール,表示画面のページ送り、などの操作の指示を入力するための操作子を備えていることが、使い勝手の観点から望まれる。   On the other hand, on the surface provided with a display unit, instructions for operations such as selection of selection control areas such as so-called icons displayed on the screen, determination of the selection, scrolling of the display screen, page turning of the display screen, etc. From the viewpoint of ease of use, it is desirable to have an operation element for inputting.

操作子としては、押し下げボタン、回転ノブ、タッチプレートなどが用いられる。   As the operation element, a push-down button, a rotary knob, a touch plate, or the like is used.

従って、画像表示装置においては、市場要求に応じて装置のサイズを小さくするため狭められた画面枠に、何らかの工夫をして操作子を配設することが必要となる。
具体的には、操作子自体を小さくする、操作子の数を減らし一つの操作子に複数の入力機能を持たせたりする、などである。
Therefore, in the image display apparatus, it is necessary to arrange an operation element with some contrivance in the narrowed screen frame in order to reduce the size of the apparatus in accordance with market demand.
Specifically, the operator itself is made smaller, the number of operators is reduced, and one operator is provided with a plurality of input functions.

しかしながら、これらの工夫は、使用者にとっては、操作がし難く、使い勝手が悪くなるものである。
従って、画像表示装置をせっかく小型化しても、使用者から望まれないものになってしまう虞がある。
However, these devices are difficult for the user to operate and are not easy to use.
Therefore, even if the image display apparatus is miniaturized, there is a possibility that the user does not want it.

そこで、操作子を用いることなく入力操作が行える、いわゆるタッチパネルを採用した画像表示装置も販売されている。
タッチパネルは、その画像を表示するパネル面を指などで押さえることで、その押さえた位置に応じた入力を実行できるパネルである。
Therefore, an image display device employing a so-called touch panel that can perform an input operation without using an operator is also on the market.
The touch panel is a panel that can execute an input corresponding to the pressed position by pressing a panel surface that displays the image with a finger or the like.

しかしながら、このタッチパネルにおいても、以下の問題が指摘されている。
すなわち、画面に表示された選択領域が小さいと、指での操作が困難になり、それに伴い、表示する選択領域の大きさや表示画面のデザインに制限が生じる。画面が指紋などで汚れる。操作する際に、指で画面の表示が隠れてしまう。画面が大きくなるほど、操作時の指の移動量が多くなり、迅速な操作がし難く、また、長時間の操作では指が疲れてしまう。画像表示装置が撮像装置であってその録画動作中の場合に、パネル面を指で押さえることで撮像装置が動いてしまい、撮
影している画像が揺れてしまう、という問題である。
However, the following problems are pointed out also in this touch panel.
That is, if the selection area displayed on the screen is small, it becomes difficult to operate with a finger, and accordingly, the size of the selection area to be displayed and the design of the display screen are limited. The screen gets dirty with fingerprints. When operating, the screen display is hidden with a finger. The larger the screen, the greater the amount of finger movement during operation, making it difficult to perform rapid operations, and the fingers become tired during long-time operations. When the image display device is an image pickup device and the recording operation is being performed, the image pickup device is moved by pressing the panel surface with a finger, and the image being shot is shaken.

そこで、接触子が小さくても、人体(指など)が触れるだけで確実に入力可能なタッチセンサが注目されている。
このタッチセンサを画面枠に設けた画像表示装置の例が、車載表示装置として特許文献1に記載されている。
Therefore, even if the contact is small, a touch sensor that can reliably input only by touching a human body (such as a finger) has been attracting attention.
An example of an image display device in which this touch sensor is provided in a screen frame is described in Patent Document 1 as an in-vehicle display device.

特開2007−156991号公報JP 2007-156991 A

上述したタッチセンサを備えた画像表示装置は、タッチセンサの押し下げ操作に加えて、感知した接触圧に応じて入力に対応する動作を変化させてもよいとされている。しかしながら、センサに触る一つの指で、その接触の程度の細かなコントロールをするのは難しいのが実情である。特に、高齢者にとって難しい操作になる可能性が高い。   The image display device including the touch sensor described above may change the operation corresponding to the input in accordance with the sensed contact pressure in addition to the touch sensor pressing operation. However, in reality, it is difficult to control the degree of contact with a single finger that touches the sensor. In particular, the operation is likely to be difficult for the elderly.

また、画像表示装置が車載用であると、車の走行に伴う揺れや振動により、一本の指の接触操作では、意図した操作が行い難い状況も想定される。   In addition, when the image display device is mounted on a vehicle, there may be a situation where it is difficult to perform an intended operation with a single finger contact operation due to shaking or vibration associated with traveling of the vehicle.

このように、一つのタッチセンサに接触の程度によって多くの機能を兼用させることには操作上の限界がある。   As described above, there is an operational limit in using a single touch sensor for many functions depending on the degree of contact.

一方、上述したタッチセンサを備えた画像表示装置は、指がタッチ(接触)するタッチセンサの接触部の面積が小さくても、確実に入力を行うことができるものであるが、そのことが逆に、わずかな接触で意図しない入力が行われてしまう、あるいは、意図せずタッチセンサに触れて継続して行われなければいけない動作が他の動作に移行してしまう、という使い勝手上の更なる改善点が認識されてきている。   On the other hand, the image display device provided with the touch sensor described above can perform input even if the area of the contact portion of the touch sensor with which the finger touches (contacts) is small. In addition, an unintended input is performed with a slight touch, or an operation that must be performed continuously by touching the touch sensor is shifted to another operation. Improvements are being recognized.

具体的な例としては、画面に表示された複数の選択領域(アイコンなど)の内の一つが選択された状態で、タッチセンサに意図せず僅かに触れてしまい、決定として入力されてしまう、あるいは、あるページを表示させて閲覧中に、過ってタッチセンサに触れてしまい、次のページにページ送りされてしまう、という不具合である。   As a specific example, in a state where one of a plurality of selection areas (icons or the like) displayed on the screen is selected, the touch sensor is touched unintentionally and is input as a decision. Or it is the malfunction that a touch sensor is touched by mistake while a certain page is displayed and browsed, and the page is forwarded to the next page.

また、画像表示装置が撮像装置の場合は、例えば、録画動作中にタッチセンサに意図せず触れてしまい、モニター中の撮影画面にメニュー画面が重畳表示されてモニターに支障をきたす、などの不具合である。   In addition, when the image display device is an imaging device, for example, the touch sensor is unintentionally touched during the recording operation, and the menu screen is superimposed on the shooting screen being monitored, causing troubles to the monitor. It is.

そこで、本発明が解決しようとする課題は、画面を触ることなく入力が可能なようにタッチセンサを画面枠に設け、一つのタッチセンサに複数の機能を割り振ったとしても、その操作を確実に行うことができる画像表示装置及び撮像装置を提供することにある。   Therefore, the problem to be solved by the present invention is that even if a touch sensor is provided in the screen frame so that input can be performed without touching the screen, and a plurality of functions are assigned to one touch sensor, the operation is ensured. An object of the present invention is to provide an image display device and an imaging device that can be performed.

また、画面を触ることなく入力が可能なようにタッチセンサを画面枠に設けても、意図しない入力が行われる可能性が少なく、使い勝手に優れた画像表示装置及び撮像装置を提供することにある。   It is another object of the present invention to provide an image display device and an imaging device that are less likely to be input unintentionally and are easy to use even if a touch sensor is provided on the screen frame so that input can be performed without touching the screen. .

上記の課題を解決するために、本願発明は手段として次の1)〜4)の構成を有する。
1)画像を表示する画像表示パネル(2c)と、
前記画像表示パネル(2c)を収容すると共に前記画像を外部から臨める矩形の窓部(2b1)が設けられた筐体(2a)と、
画像を表示し前記窓部(2b1)からその画像を臨めるように前記筐体(2a)に収容された画像表示部(2c)と、
タッチ面(8a)に対する人体の接触で信号を出力し、前記タッチ面(8a)が前記筐体(2a)における前記窓部(2b1)の一辺(2b1−L)に沿って細長形状で露出するよう前記筐体(2a)に設けられた第1のタッチセンサ(8)と、
タッチ面(8a)に対する人体の接触で信号を出力する第2のタッチセンサ(18)と、
前記第1のタッチセンサ(8)から出力された信号を検出し、その信号に基づいて前記画像を変化させて表示する制御部(12)と、を備え、
前記制御部(12)は、前記第2のタッチセンサ(18)からの出力がない状態で前記第1のタッチセンサ(8)から前記信号が出力された場合と、前記第2のタッチセンサ(18)からの出力がある状態で前記第1のタッチセンサ(8)から信号が出力された場合とで、前記画像の変化を異ならせる画像表示装置(50)である。
2) 前記第2のタッチセンサ(18)は、前記筐体(2a)における前記第1のタッチセンサ(8)の長手方向の延長上に配設されていることを特徴とする1)に記載の画像表示装置(50)である。
3) 前記制御部(12)は、当該画像表示装置の電源が待機状態にあり、かつ、前記第2のタッチセンサ(29)の出力がある状態で前記第1のタッチセンサ(8)から信号が出力された場合に、当該画像表示装置の主電源を投入することを特徴とする1)に記載の画像表示装置(50)である。
4) 撮影レンズ(3)を介した被写体像を光電変換して画像信号を出力する撮像素子(5)と、
前記画像信号に基づく画像を表示する画像表示パネル(2c)と、
前記画像表示パネル(2c)を収容すると共に前記画像を外部から臨める矩形の窓部(2b1)が設けられた筐体(2a)と、
前記画像信号に基づく画像を表示し前記開口部(2b1)からその画像を臨めるように前記筐体(2a)に収容された画像表示部(2c)と、
タッチ面(8a)に対する人体の接触で信号を出力し、前記タッチ面(8a)が前記筐体(2a)における前記窓部(2b1)の一辺(2b1−L)に沿って細長形状で露出するよう前記筐体(2a)に設けられた第1のタッチセンサ(8)と、
タッチ面(8a)に対する人体の接触で信号を出力する第2のタッチセンサ(18)と、
前記第1のタッチセンサ(8)から出力された信号を検出し、その信号に基づいて前記画像を変化させて表示する制御部(12)と、を備え、
前記制御部(12)は、前記第2のタッチセンサ(18)からの出力がない状態で前記第1のタッチセンサ(8)から前記信号が出力された場合と、前記第2のタッチセンサ(18)からの出力がある状態で前記第1のタッチセンサ(8)から信号が出力された場合とで、前記画像の変化を異ならせる撮像装置(50)である。
5) 前記第2のタッチセンサ(18)は、前記筐体(2a)における前記第1のタッチセンサ(8)の長手方向の延長上に配設されていることを特徴とする3)に記載の撮像装置(50)である。
6) 前記制御部(12)は、当該撮像装置の電源が待機状態にあり、かつ、前記第2のタッチセンサ(29)の出力がある状態で前記第1のタッチセンサ(8)から信号が出力された場合に、当該撮像装置の主電源を投入することを特徴とする4)に記載の撮像装置(50)である。
In order to solve the above problems, the present invention has the following configurations 1) to 4) as means.
1) an image display panel (2c) for displaying an image;
A housing (2a) provided with a rectangular window (2b1) for housing the image display panel (2c) and facing the image from the outside;
An image display unit (2c) housed in the housing (2a) so as to display an image and face the image from the window (2b1);
A signal is output by contact of the human body with the touch surface (8a), and the touch surface (8a) is exposed in an elongated shape along one side (2b1-L) of the window (2b1) in the housing (2a). A first touch sensor (8) provided in the housing (2a),
A second touch sensor (18) for outputting a signal by contact of the human body with the touch surface (8a);
A control unit (12) for detecting a signal output from the first touch sensor (8) and changing and displaying the image based on the signal;
The controller (12) is configured to output the second touch sensor (8) when the signal is output from the first touch sensor (8) in the absence of an output from the second touch sensor (18). 18) An image display device (50) that changes the image differently when a signal is output from the first touch sensor (8) in a state in which there is an output from (18).
2) The second touch sensor (18) is disposed on the longitudinal extension of the first touch sensor (8) in the housing (2a). Image display device (50).
3) The control unit (12) receives a signal from the first touch sensor (8) in a state where the power source of the image display device is in a standby state and the second touch sensor (29) has an output. Is output, the image display device (50) according to 1), wherein the main power supply of the image display device is turned on.
4) an image sensor (5) that photoelectrically converts a subject image via the photographing lens (3) and outputs an image signal;
An image display panel (2c) for displaying an image based on the image signal;
A housing (2a) provided with a rectangular window (2b1) for housing the image display panel (2c) and facing the image from the outside;
An image display unit (2c) housed in the housing (2a) so as to display an image based on the image signal and to view the image from the opening (2b1);
A signal is output by contact of the human body with the touch surface (8a), and the touch surface (8a) is exposed in an elongated shape along one side (2b1-L) of the window (2b1) in the housing (2a). A first touch sensor (8) provided in the housing (2a),
A second touch sensor (18) for outputting a signal by contact of the human body with the touch surface (8a);
A control unit (12) for detecting a signal output from the first touch sensor (8) and changing and displaying the image based on the signal;
The controller (12) is configured to output the second touch sensor (8) when the signal is output from the first touch sensor (8) in the absence of an output from the second touch sensor (18). 18) An imaging device (50) that changes the image differently when a signal is output from the first touch sensor (8) in a state in which there is an output from (18).
5) The second touch sensor (18) is disposed on the longitudinal extension of the first touch sensor (8) in the housing (2a). Imaging device (50).
6) The control unit (12) receives a signal from the first touch sensor (8) in a state where the power source of the imaging apparatus is in a standby state and the output of the second touch sensor (29) is present. In the imaging device (50) according to 4), when the output is performed, the main power supply of the imaging device is turned on.

本発明によれば、一つのタッチセンサに複数の機能を割り振ったとしても、その操作を確実に行うことができる、という効果を奏する。   According to the present invention, even if a plurality of functions are assigned to one touch sensor, the operation can be performed reliably.

また、意図しない入力が行われる可能性が少なく、使い勝手に優れる、という効果を奏する。   Moreover, there is little possibility that an unintended input is performed, and there is an effect that it is excellent in usability.

本発明の実施の形態を、好ましい実施例により図1〜図15を用いて説明する。   An embodiment of the present invention will be described with reference to FIGS.

以下に説明する画像表示装置の実施例は、撮像装置である。ここでは、その一例として、ハードディスクを記録媒体として内蔵し画像を液晶表示パネルで表示するビデオカメラ50を説明する。   An example of the image display apparatus described below is an imaging apparatus. Here, as an example, a video camera 50 that includes a hard disk as a recording medium and displays an image on a liquid crystal display panel will be described.

図1は、このビデオカメラ50を斜め左後方から見た外観斜視図である。
まず、全体構成の概略を説明する。
FIG. 1 is an external perspective view of the video camera 50 as viewed obliquely from the left rear.
First, an outline of the overall configuration will be described.

このビデオカメラ50は、本体部1と、この本体部1の左側面において、ヒンジ部1aにより本体部1に対して約90°の範囲で開閉自在とされた表示部2と、本体部1の前側に設けられたレンズ部3と、本体部1の右側面に設けられてこの本体部1を把持するためのグリップ部4と、を備えている。   The video camera 50 includes a main body 1, a display unit 2 that can be opened and closed within a range of about 90 ° with respect to the main body 1 by a hinge 1 a on the left side surface of the main body 1, A lens portion 3 provided on the front side and a grip portion 4 provided on the right side surface of the main body portion 1 for gripping the main body portion 1 are provided.

また、本体部1の内部には、レンズ部3からの被写体像を撮像する撮像素子5と、撮像素子5で撮像された画像を記録する記録媒体であるハードディスク6aを搭載したハードディスク装置6と、カード状記録媒体であるメモリーカード6bと、このビデオカメラ1全体を制御する制御部7と、画像処理回路10と、を備えて構成されている。構成の詳細は、ブロック図を用いて後述する。   Further, inside the main body 1, a hard disk device 6 equipped with an image sensor 5 that captures a subject image from the lens unit 3 and a hard disk 6 a that is a recording medium for recording an image captured by the image sensor 5, The memory card 6b, which is a card-like recording medium, a control unit 7 that controls the entire video camera 1, and an image processing circuit 10 are provided. Details of the configuration will be described later using a block diagram.

一方、表示部2は、矩形平板状の筐体2aと、その一面2b(以下、操作面2bとも称する)に設けられた開口部2b1を通して表示画面が視認できるように筐体2aに内蔵された表示パネル2cと、を備えて構成されている。
この開口部2b1は、表示画面が外部から臨めるように設けられた窓部である。
従って、表示パネル2cの表示面が露出していてもよく、また、その表示面を覆うように透明の保護パネル(アクリル樹脂など)がはめ込まれていてもよい。
On the other hand, the display unit 2 is built in the housing 2a so that the display screen can be seen through the rectangular flat plate-like housing 2a and an opening 2b1 provided on one surface 2b (hereinafter also referred to as an operation surface 2b). And a display panel 2c.
The opening 2b1 is a window provided so that the display screen can be seen from the outside.
Accordingly, the display surface of the display panel 2c may be exposed, or a transparent protective panel (acrylic resin or the like) may be fitted so as to cover the display surface.

この表示パネル2cとしては、液晶の他に有機EL(Organic Electro Luminescence)などの表示パネルを用いることができる。   As the display panel 2c, a display panel such as an organic EL (Organic Electro Luminescence) can be used in addition to the liquid crystal.

また、筐体2aは、その一側面2dがヒンジ部1aと連結され、本体部1に対して回動軸CL1回りの矢印D1方向に開閉可能とされている。
また、ヒンジ部1aは、筐体2aを回動軸CL2回りにも回動自在に支持している。
Further, the housing 2a has one side surface 2d connected to the hinge portion 1a and can be opened and closed with respect to the main body portion 1 in the direction of the arrow D1 around the rotation axis CL1.
Moreover, the hinge part 1a is supporting the housing | casing 2a so that rotation around the rotating shaft CL2 is also possible.

表示部2の操作面2bの上述した開口部2b1は、図1の左右方向(このビデオカメラ50の水平方向)を長手とする矩形に開口している。この実施例では開口は長方形である。
筐体2aの操作面2bには、開口部2b1の左辺、すなわち、ヒンジ部1aから遠い側の短辺に沿って、タッチセンサ8が設けられている。
The above-described opening 2b1 of the operation surface 2b of the display unit 2 is opened in a rectangle whose longitudinal direction is the left-right direction in FIG. 1 (the horizontal direction of the video camera 50). In this embodiment, the opening is rectangular.
A touch sensor 8 is provided on the operation surface 2b of the housing 2a along the left side of the opening 2b1, that is, the short side far from the hinge 1a.

また、そのタッチセンサ8の上方側の、操作面2bと筐体2aの天側の側面2eとに跨るように、別のタッチセンサ18が設けられている。
また、操作面2bには、開口部2b1の下長辺に沿って、複数のタッチセンサを含む操作子群9が配設されている。
Further, another touch sensor 18 is provided so as to straddle the operation surface 2b above the touch sensor 8 and the top side surface 2e of the housing 2a.
Further, on the operation surface 2b, an operator group 9 including a plurality of touch sensors is disposed along the lower long side of the opening 2b1.

以下、タッチセンサ8,18と操作子群9とを含みこのビデオカメラ50が有する入力操作子を総称して入力操作子NSと総称する。   Hereinafter, the input operators included in the video camera 50 including the touch sensors 8 and 18 and the operator group 9 are collectively referred to as an input operator NS.

このビデオカメラ50は、上述した構成により、レンズ部3を介した被写体像を撮像素子5により取り込み、取り込んだ画像の記録や記録した画像の再生を行い、また、画像表示部での画像の表示を行う。   With this configuration, the video camera 50 captures the subject image via the lens unit 3 with the imaging device 5, records the captured image, and reproduces the recorded image, and displays the image on the image display unit. I do.

次に、全体構成の詳細を説明する。
図2は、このビデオカメラ50の基本ブロック図である。
Next, details of the overall configuration will be described.
FIG. 2 is a basic block diagram of the video camera 50.

レンズ部3は、被写体の像を撮像素子5に結像する。
撮像素子5は、光電変換により被写体の像を画像信号S1として出力する。
カメラ制御回路11aは、レンズ部3及び撮像素子5を含むカメラブロックを制御する回路である。
画像処理回路11bは、カメラ制御回路11aを経た画像信号S1に対して信号処理を施す回路である。
CPU12は、このビデオカメラ50全体の動作を制御する制御部である。
ENC/DEC回路(エンコード/デコード回路)11cは、画像データのJPEG及びMPEG方式でのエンコード及びデコードを実行する(JPEG:Joint Photographic Experts Group,MPEG:Moving Picture Experts Group)。
入力操作子NSは、使用者の操作を検知して入力信号S2を出力する。この入力指示信号S2は制御部12に送出される。
ハードディスク6aには、画像処理回路11bから送出された画像データなどのデータが記録される。また、ハードディスク6aに記録された画像データなどのデータが読み出されて画像処理回路11bに送られる。
メモリーカード6bには、画像処理回路11bから送出された画像データなどのデータが記録される。また、メモリーカード6bに記録された画像データなどのデータが読み出されて画像処理回路11bに送られる。
バッファメモリである、SDRAM13a,13b,及びEEPROM13cは、画像データなどのデータを一時記憶する(SDRAM:Synchronous Dynamic Random Access Memory,EEPROM:Electronically Erasable and Programmable Read Only Memory)。
アナログI/F(インターフェース)14は、デジタルの出力画像信号をアナログ出力信号に変換して表示パネル2cに送出する。
外部入出力部31は、アナログI/Fに接続され画像や音声などのアナログ信号を外部との間で入出力する。
電源30は、本体部1に直接装着されたバッテリを用いて供給されてもよく(図1参照)、ACアダプターなどの外部機器から外部入出力部31を介して供給されてもよい。
制御部12は、電源の待機状態(主電源オフでの待機状態)または主電源の投入状態(主電源オン)との切換を制御する。
The lens unit 3 forms an image of the subject on the image sensor 5.
The image sensor 5 outputs an image of a subject as an image signal S1 by photoelectric conversion.
The camera control circuit 11 a is a circuit that controls a camera block including the lens unit 3 and the image sensor 5.
The image processing circuit 11b is a circuit that performs signal processing on the image signal S1 that has passed through the camera control circuit 11a.
The CPU 12 is a control unit that controls the operation of the entire video camera 50.
An ENC / DEC circuit (encode / decode circuit) 11c executes encoding and decoding of image data in JPEG and MPEG formats (JPEG: Joint Photographic Experts Group, MPEG: Moving Picture Experts Group).
The input operator NS detects a user operation and outputs an input signal S2. The input instruction signal S2 is sent to the control unit 12.
Data such as image data sent from the image processing circuit 11b is recorded on the hard disk 6a. Data such as image data recorded on the hard disk 6a is read and sent to the image processing circuit 11b.
Data such as image data sent from the image processing circuit 11b is recorded in the memory card 6b. Further, data such as image data recorded on the memory card 6b is read and sent to the image processing circuit 11b.
The SDRAMs 13a and 13b and the EEPROM 13c, which are buffer memories, temporarily store data such as image data (SDRAM: Synchronous Dynamic Access Memory, EEPROM: Electronically Readable Memory Programmable).
The analog I / F (interface) 14 converts the digital output image signal into an analog output signal and sends it to the display panel 2c.
The external input / output unit 31 is connected to an analog I / F and inputs / outputs analog signals such as images and sounds to / from the outside.
The power supply 30 may be supplied using a battery directly attached to the main body 1 (see FIG. 1), or may be supplied from an external device such as an AC adapter via the external input / output unit 31.
The control unit 12 controls switching between a standby state of the power supply (standby state when the main power supply is turned off) or a main power supply state (main power supply is turned on).

次に、具体的な動作の例を説明する。   Next, a specific example of operation will be described.

このビデオカメラ50は、被写体像の動画と静止画との両方を撮影して記録することができるように構成されている。
その場合、入力操作子NSの内の、記録/再生切り替えスイッチを押し下げることで再生モードから記録モードへの移行を指示できる。
この操作を受けて、制御部12は、このビデオカメラ50の動作を記録モードに設定し、静止画撮影又は動画撮影の実行指示の入力待ち状態とする。
The video camera 50 is configured to be able to shoot and record both a moving image and a still image of a subject image.
In that case, it is possible to instruct the transition from the reproduction mode to the recording mode by depressing the recording / reproduction switching switch in the input operation unit NS.
In response to this operation, the control unit 12 sets the operation of the video camera 50 to the recording mode, and waits for an instruction to execute still image shooting or moving image shooting.

静止画の記録に際しては、入力操作子NSからの静止画撮影指示操作(例えば、静止画撮影ボタンの押し下げ操作)により、入力操作子NSから静止画撮影を指示する入力操作信号S2sが出力される。   When recording a still image, an input operation signal S2s for instructing still image shooting is output from the input operator NS by a still image shooting instruction operation from the input operator NS (for example, a pressing operation of a still image shooting button). .

この入力操作信号S2sに応じ、制御部12は、画像処理回路11bに対して、映像信号S1をSDRAM13aに一時記憶させると共に静止画像データとしてENC/DEC回路11cによりJPEG方式でエンコードした後、記録媒体6aまたは6bに記録させるよう指示する。   In response to the input operation signal S2s, the control unit 12 causes the image processing circuit 11b to temporarily store the video signal S1 in the SDRAM 13a and encode it as still image data by the ENC / DEC circuit 11c using the JPEG method, and then to record the recording medium. Instruct to record to 6a or 6b.

一方、動画の記録に際しては、操作子NSからの動画撮影指示操作(例えば、動画撮影ボタンの押し下げ操作)により、入力操作子NSから動画撮影を指示する入力操作信号S2dが出力される。   On the other hand, when recording a moving image, an input operation signal S2d for instructing moving image shooting is output from the input operator NS by a moving image shooting instruction operation from the operation element NS (for example, a pressing operation of a moving image shooting button).

この入力操作信号S2dに応じ、制御部12は、画像処理回路11bに対して、映像信号S1を動画像データとしてENC/DEC回路11cによりMPEG方式でエンコードした後、記録媒体6aまたは6bに記録させるよう指示する。   In response to the input operation signal S2d, the control unit 12 causes the image processing circuit 11b to encode the video signal S1 as moving image data by the ENC / DEC circuit 11c using the MPEG method, and then record it on the recording medium 6a or 6b. Instruct.

記録/再生切り替えスイッチを再度押し下げると、それまでの記録モードから再生モードへの移行が指示される。
この指示を受けて、制御部12は、このビデオカメラ50の動作を再生モードに設定し、再生対象の選択,再生開始などの指示の入力待ち状態とする。
When the recording / reproduction switching switch is depressed again, an instruction to shift from the previous recording mode to the reproduction mode is given.
In response to this instruction, the control unit 12 sets the operation of the video camera 50 to the reproduction mode, and waits for an instruction to select an object to be reproduced, start reproduction, or the like.

さらに、制御部12は、記録媒体であるハードディスク6aまたはメモリーカード6bに記録されている静止画ファイルや動画ファイルに対してENC/DEC回路11cで所定のデコードを施すと共に、それらファイルのインデックスを、アナログI/F14を介して、表示パネル2cに表示させる。   Further, the control unit 12 performs predetermined decoding by the ENC / DEC circuit 11c on the still image file or the moving image file recorded on the hard disk 6a or the memory card 6b, which is a recording medium, and the index of the file is The image is displayed on the display panel 2c via the analog I / F 14.

次に、表示部2について図3を用いて詳述する。
図3は、表示部2の操作面2bについての正面図である。
特に図3(a)は具体化した現物の正面図であり、図3(b)は(a)に対応する模式図である。
Next, the display unit 2 will be described in detail with reference to FIG.
FIG. 3 is a front view of the operation surface 2 b of the display unit 2.
In particular, FIG. 3 (a) is a front view of the actual object embodied, and FIG. 3 (b) is a schematic view corresponding to (a).

上述したように、表示部2の筐体2aの操作面2bには、開口部2b1が設けられており、開口部2b1内には、表示パネル2cの画像が表示される。
筐体2aにおいて、開口部2b1に対応した左側の枠部2a1には、入力操作子9の一つである、タッチセンサ8が設けられている。
As described above, the opening 2b1 is provided in the operation surface 2b of the housing 2a of the display unit 2, and an image of the display panel 2c is displayed in the opening 2b1.
In the housing 2a, a touch sensor 8, which is one of the input operators 9, is provided on the left frame 2a1 corresponding to the opening 2b1.

このタッチセンサ8は、指などの接触を検出するタッチ面部8a(図3における網掛け部分)が細長に形成されているものである。
そして、その長手方向が開口部2b1の左辺2b1−Lと平行になるよう枠部2a1に配設されている。
The touch sensor 8 has a touch surface portion 8a (a shaded portion in FIG. 3) for detecting contact with a finger or the like that is elongated.
And it is arrange | positioned at the frame part 2a1 so that the longitudinal direction may become parallel to the left side 2b1-L of the opening part 2b1.

また、このタッチセンサ8は、タッチ面部8aの長手方向に沿って独立した4つの検出部8b1〜8b4を備えている。
従って、タッチ面部8a上を、例えば図3の上方側から下方側に向かって指を接触させたまま滑らせると、その位置に応じ、検出部8b1,8b2,8b3,8b4の順に検出信号が出力される。
The touch sensor 8 includes four detection units 8b1 to 8b4 that are independent along the longitudinal direction of the touch surface portion 8a.
Accordingly, when the finger is slid on the touch surface portion 8a from the upper side to the lower side in FIG. 3, for example, detection signals are output in the order of the detection units 8b1, 8b2, 8b3, and 8b4 according to the position. Is done.

一方、筐体2aにおいて、開口部2b1に対応した下側の枠部2a2には、複数のタッチセンサ9A〜9Eが操作子群9として配設されている。この実施例では、この操作子群9のタッチセンサは5つである。   On the other hand, in the housing 2a, a plurality of touch sensors 9A to 9E are arranged as an operator group 9 in the lower frame 2a2 corresponding to the opening 2b1. In this embodiment, there are five touch sensors in the operator group 9.

タッチセンサ9A〜9Eは、各タッチ面部9Aa〜9Eaが略円形または略楕円形であり、それぞれが単独の検出部を備えている。   In the touch sensors 9A to 9E, the touch surface portions 9Aa to 9Ea are substantially circular or substantially oval, and each includes a single detection unit.

また、図3においては、タッチセンサ9A〜9Eを理解容易のために大きく描いている。   Further, in FIG. 3, the touch sensors 9A to 9E are drawn large for easy understanding.

図3においては、表示パネル2cに、再生する画像を選択するためのインデックスが表示されている状態を示している。
具体的には、この画面は複数のシーンから所望のシーンをインデックスにより選択する画面であり、選択されるべき全シーンを各ページ9つずつ表示させるものである。
FIG. 3 shows a state in which an index for selecting an image to be reproduced is displayed on the display panel 2c.
Specifically, this screen is a screen for selecting a desired scene from a plurality of scenes by using an index, and displays all the scenes to be selected on each page 9.

図3では、画面の右上に全ページ数Nと現在表示中のページ番号nとが、n/Nの形式で表示されている。すなわち、この図3では、69ページ中の20ページ目を表示していることが示されている。   In FIG. 3, the total page number N and the currently displayed page number n are displayed in the n / N format on the upper right of the screen. That is, FIG. 3 shows that the 20th page of 69 pages is displayed.

1つのページには、9つのシーン(「シーン1」から「シーン9」)に対応した9個の選択領域SR1〜SR9がマトリックス状に表示されている。
この選択領域として、各シーンのサムネイル画像を表示してもよく、各シーンの内容を示す文章や内容を特定できるように関連づけられたマークなどでもよい。
On one page, nine selection areas SR1 to SR9 corresponding to nine scenes ("Scene 1" to "Scene 9") are displayed in a matrix.
As this selection area, a thumbnail image of each scene may be displayed, a sentence indicating the contents of each scene, a mark associated with the contents so that the contents can be specified, or the like may be used.

また、その内の一つの枠の輝度が高く(ハイライト化)表示され、カーソルがそこにあることを示している。図3の例では「シーン1」にカーソルが位置していることを示している。   Also, the brightness of one of the frames is displayed high (highlighted), indicating that the cursor is there. In the example of FIG. 3, the cursor is positioned on “scene 1”.

また、選択領域SR1〜SR9の表示域の下側には、シーン選択以外の動作を指示するための選択領域が表示されている。
具体的には、「選択」動作を指示する場合の選択領域SR21,「戻る」動作を指示する場合の選択領域SR22,「確認」動作を指示する場合の選択領域SR23,及び「終了」動作を指示する場合の選択領域SR24である。
A selection area for instructing an operation other than scene selection is displayed below the display area of the selection areas SR1 to SR9.
Specifically, the selection region SR21 in the case of instructing the “select” operation, the selection region SR22 in the case of instructing the “return” operation, the selection region SR23 in the case of instructing the “confirmation” operation, and the “end” operation. This is the selection region SR24 when instructing.

一方、各タッチセンサ8,9A〜9Eからの入力操作信号S2に基づいて、制御部12は、予め設定された動作を実行するよう制御する。この動作は、個々のタッチセンサ8,9A〜9Eに対応して予め割り当てられたものである。   On the other hand, based on the input operation signal S2 from each of the touch sensors 8, 9A to 9E, the control unit 12 controls to execute a preset operation. This operation is assigned in advance corresponding to each of the touch sensors 8, 9A to 9E.

具体的な割り当てについて、図3のインデックス選択を一例として以下に示す。   Specific assignment is shown below by taking the index selection of FIG. 3 as an example.

(インデックス選択)
図3において、タッチセンサ8のタッチ面部8aに対して、指で上方向または下方向になぞられた際に、複数の検出部8b1〜8b4から時系列的に入力操作信号が出力される。
制御部12は、これに時系列的に出力された入力操作信号に基づいて指の移動量を検出し、検出した量に対応したカーソルの移動量を決定し、その決定した移動量だけカーソルを移動させる。
(Index selection)
In FIG. 3, when the finger is traced upward or downward with respect to the touch surface portion 8a of the touch sensor 8, input operation signals are output in time series from the plurality of detection portions 8b1 to 8b4.
The control unit 12 detects the movement amount of the finger based on the input operation signal output in time series, determines the movement amount of the cursor corresponding to the detected amount, and moves the cursor by the determined movement amount. Move.

例えば、カーソル移動量が下方向に1つと決定された場合は、カーソルは「シーン4」に移行する。
また、上方向に1つと決定された場合は、マトリックスの1行分画面が下送りされ、「シーン1」の一つ上に位置するシーンにカーソルが移行する。
For example, when the cursor movement amount is determined to be one in the downward direction, the cursor moves to “scene 4”.
If it is determined that the number is one in the upward direction, the screen for one row of the matrix is moved down, and the cursor moves to a scene positioned one above “Scene 1”.

この場合のカーソルの移動は、指の移動(なぞり操作)1回につき1回行われる。   In this case, the cursor is moved once per finger movement (race operation).

また、タッチ面部8aの上側または下側の半分の領域を所定の時間以上触れることで、その触れている領域の上下に対応づけられた前後方向のページ送りを実行する。   Further, by touching the upper or lower half area of the touch surface portion 8a for a predetermined time or longer, the page feed in the front-rear direction corresponding to the upper and lower sides of the touched area is executed.

具体的には、現在の表示画面が20ページ目であり、所定の時間が2秒と設定されている場合、タッチ面部8aの下側の領域である検出部8b3,8b4で検出される領域を、2秒以上触れていると、制御部12は、触れている下側と対応づけられた後ろ方向へ、ページ送り動作を実行する。
すなわち、ページを、21,22,23,・・・と移動させる。逆に、上側の領域を触れた場合は、逆にページが19,18,・・・と前側に移動する。
Specifically, when the current display screen is the 20th page and the predetermined time is set to 2 seconds, the areas detected by the detection units 8b3 and 8b4, which are areas below the touch surface part 8a, are displayed. When touched for 2 seconds or longer, the control unit 12 performs a page feed operation in the backward direction associated with the touched lower side.
That is, the page is moved to 21, 22, 23,. Conversely, when the upper area is touched, the page moves to the front side as 19, 18,.

一つ送りの場合もページ送りの場合も、送る選択領域あるいは送るページがない選択範囲の末端に達している場合は、カーソルが選択範囲の末端にあることを示すテキストまたはマークなどを表示する。   In the case of single feed or page feed, if the selection area or the page to be sent has reached the end of the selection range, text or a mark indicating that the cursor is at the end of the selection range is displayed.

次に、図4のフローチャートを用い上述したインデックス選択動作について詳述する。   Next, the index selection operation described above will be described in detail using the flowchart of FIG.

まず、ビデオカメラ50の電源をオンにする(STEP1)   First, the video camera 50 is turned on (STEP 1).

記録/再生切り替えスイッチにより再生モードに設定する(STEP2)   The playback mode is set by the recording / playback switch (STEP 2).

制御部12は、タッチセンサ8のタッチ面部8aの上半分領域と下半分領域のどちらに人体が触れているかの判定を、検出部8b1〜8b4からの出力信号に基づいて行う(STEP3)。   The control unit 12 determines whether the human body is touching the upper half region or the lower half region of the touch surface portion 8a of the touch sensor 8 based on the output signals from the detection units 8b1 to 8b4 (STEP 3).

上半分と判定した場合、制御部12は、タッチ面部8aへの接触がスライド操作(なぞり操作)なのか、移動のないタップ操作なのかを判定する(STEP4)。
これは、出力信号の送出元の検出部8b1〜8b4が、時系列的に変わるか否かで判定する。時系列的に変われば、スライド操作であり、変わらなければタップ操作である。
When it determines with the upper half, the control part 12 determines whether the contact to the touch surface part 8a is a slide operation (tracing operation), or a tap operation without a movement (STEP4).
This is determined by whether or not the detectors 8b1 to 8b4 that are the output signal transmission sources change in time series. If it changes in time series, it is a slide operation, and if it does not change, it is a tap operation.

制御部12は、スライド操作と判定した場合、インデックス表示のカーソルが位置するシーン番号を一つ戻す(STEP5)。すなわち、カーソルを一つ前のシーンの選択領域に移動する。   When it is determined that the operation is a slide operation, the control unit 12 returns one scene number where the index display cursor is located (STEP 5). That is, the cursor is moved to the selection area of the previous scene.

タップ操作と判断した場合、接触時間を判定する(STEP6)。
この接触時間の判定は、設定された時間以上か未満かで判定する。
When it is determined that the operation is a tap operation, the contact time is determined (STEP 6).
The contact time is determined based on whether it is greater than or less than the set time.

この実施例では、2秒を基準値としているので、接触が2秒以上であれば、ページ戻しを実行する(STEP7)。接触が2秒未満の場合は、そのまま維持する(STEP8)。   In this embodiment, since 2 seconds is set as a reference value, if the contact is 2 seconds or more, page return is executed (STEP 7). If the contact is less than 2 seconds, it is maintained as it is (STEP 8).

STEP3で、下半分領域と判定した場合、制御部12は、STEP4と同様の、タッチ面部8aへの接触がスライド操作(なぞり操作)なのか、移動のないタップ操作なのかを判定する(STEP9)。   If it is determined in STEP 3 that the lower half area is present, the control unit 12 determines whether the touch on the touch surface portion 8a is a slide operation (race operation) or a tap operation without movement (STEP 9). .

制御部12は、スライド操作と判定した場合、インデックス表示のカーソルが位置するシーン番号を一つ送る(STEP10)。すなわち、カーソルを一つ後のシーンの選択領域に移動する。   When it is determined that the operation is a slide operation, the control unit 12 sends one scene number where the index display cursor is located (STEP 10). That is, the cursor is moved to the selection area of the next scene.

タップ操作と判断した場合、SETP6と同様に接触時間を判定する(STEP11)。   If it is determined that the operation is a tap operation, the contact time is determined in the same manner as in SETP6 (STEP 11).

接触が2秒以上であれば、ページ送りを実行する(STEP12)。接触が2秒未満の場合は、そのまま維持する(STEP13)。   If the contact is 2 seconds or more, page feed is executed (STEP 12). If the contact is less than 2 seconds, it is maintained as it is (STEP 13).

以上は、選択領域による複数シーンのインデックス選択の例であるが、他の表示及び操作の例としてメニュー選択の場合を説明する。   The above is an example of index selection of a plurality of scenes by a selection area. The case of menu selection will be described as another example of display and operation.

(メニュー選択)
図5において、タッチセンサ8のタッチ面部8aに対して、指で上方向または下方向になぞられた際に、複数の検出部8b1〜8b4から時系列的に入力操作信号が出力される。
(Menu selection)
In FIG. 5, when the touch surface portion 8 a of the touch sensor 8 is traced upward or downward with a finger, input operation signals are output in time series from the plurality of detection portions 8 b 1 to 8 b 4.

制御部12は、これに時系列的に出力された入力操作信号に基づいて指の移動量を検出し、検出した量に対応したカーソルの移動量を決定し、その決定した移動量だけカーソルを移動させる。   The control unit 12 detects the movement amount of the finger based on the input operation signal output in time series, determines the movement amount of the cursor corresponding to the detected amount, and moves the cursor by the determined movement amount. Move.

図5は、メニュー選択の例を示している。
この図は、ビデオカメラ50の複数の機能から所望の機能を選択するメニュー画面を示している。
FIG. 5 shows an example of menu selection.
This figure shows a menu screen for selecting a desired function from a plurality of functions of the video camera 50.

各メニューは、それぞれ選択領域として画面の縦方向に配列されている。図5では、画面に表示可能な5つの選択領域SR31〜SR35が示され、その前後(上下)に隠れている選択領域が存在してそこへの画面移動が可能であることを示す三角マークSM1,SM2が表示されている。   Each menu is arranged in the vertical direction of the screen as a selection area. In FIG. 5, five selection areas SR31 to SR35 that can be displayed on the screen are shown, and a triangular mark SM1 indicating that there is a selection area hidden before and after (up and down) and that the screen can be moved there. , SM2 are displayed.

また、表示された選択領域の内の一つの選択領域SR33の枠の輝度が高く(ハイライト化)表示され、カーソルがそこにあることを示している。図5の例では撮影モードにカーソルが位置していることを示している。   Also, the brightness of the frame of one selection region SR33 in the displayed selection region is displayed with high (highlighted) display, indicating that the cursor is there. The example of FIG. 5 shows that the cursor is positioned in the shooting mode.

このメニュー選択の場合も、タッチセンサ8に対して、指で上方向または下方向になぞられた際に、複数の検出部8b1〜8b4から時系列的に入力操作信号が出力される。   Also in the case of this menu selection, when the touch sensor 8 is traced upward or downward with a finger, input operation signals are output in time series from the plurality of detection units 8b1 to 8b4.

制御部12は、これに時系列的に出力された入力操作信号に基づいて指の移動量を検出し、検出した量に対応したカーソルの移動量を決定し、その決定した移動量だけカーソルを移動させる。   The control unit 12 detects the movement amount of the finger based on the input operation signal output in time series, determines the movement amount of the cursor corresponding to the detected amount, and moves the cursor by the determined movement amount. Move.

例えば、カーソル移動量が下方向に1つと決定された場合は、カーソルは「イベント設定」に移行する。
また、カーソルが「高速起動」にあり、カーソル移動量が下方向に1つと決定された場合は、マトリックスの1行分画面が上送りされ、「高速起動」の一つ下に位置するメニューにカーソルが移行する。
For example, when the cursor movement amount is determined to be one in the downward direction, the cursor shifts to “event setting”.
Also, if the cursor is at “fast start” and the cursor movement amount is determined to be one in the downward direction, the screen for one line of the matrix is moved up, and the menu located below “fast start” is displayed. The cursor moves.

この場合のカーソルの移動は、指の移動(なぞり動作)1回につき1回行われる。   In this case, the cursor is moved once per finger movement (tracing operation).

また、タッチ面部8aの上側または下側の半分の領域を所定の時間以上触れることで、その触れている領域の上下に対応づけられた前後(上下)方向のメニュー送りを表示されているメニューの数単位で実行する。   Further, by touching the upper or lower half area of the touch surface portion 8a for a predetermined time or longer, the menu feed in the front / rear (up / down) direction corresponding to the upper / lower direction of the touched area is displayed. Run in a few units.

具体的には、表示されているメニューがn個(nは1以上の整数)であり、所定の時間が2秒と設定されている場合、タッチ面部8aの下側の領域である検出部8b3,8b4で検出される部分を、2秒以上触れていると、制御部12は、触れている下側と対応づけられた後ろ方向へ、メニュー送り動作をm個(m=n)単位で実行する。   Specifically, when the number of displayed menus is n (n is an integer equal to or greater than 1) and the predetermined time is set to 2 seconds, the detection unit 8b3, which is an area below the touch surface unit 8a. , 8b4, the control unit 12 executes the menu feed operation in units of m (m = n) in the backward direction associated with the touched lower side when the part detected by 8b4 is touched for 2 seconds or more. To do.

ここで、nが2以上の場合に、mを、m<n(mは1以上の整数)としてもよい。また、このmの値を使用者が設定できるようにしてもよい。   Here, when n is 2 or more, m may be m <n (m is an integer of 1 or more). The value of m may be set by the user.

さらに別の例として機能調整の場合を説明する。   As another example, the case of function adjustment will be described.

(フォーカス調整)
図6において、タッチセンサ8のタッチ面部8aに対して、指で上方向または下方向になぞられた際に、複数の検出部8b1〜8b4から時系列的に入力操作信号が出力される。
(Focus adjustment)
In FIG. 6, when the finger is traced upward or downward with respect to the touch surface portion 8a of the touch sensor 8, input operation signals are output in time series from the plurality of detection portions 8b1 to 8b4.

制御部12は、これに時系列的に出力された入力操作信号に基づいて指の移動量を検出し、画面に表示される調整領域の中に表示される現在のフォーカス位置を示すポインタの移動量を決定し、その決定した移動量だけポインタを移動させる。   The control unit 12 detects the movement amount of the finger based on the input operation signal output in time series, and moves the pointer indicating the current focus position displayed in the adjustment area displayed on the screen. The amount is determined, and the pointer is moved by the determined amount of movement.

図6は、フォーカス調整の例を示している。
この図は、ビデオカメラ50のフォーカスを画面上で調節するための画面を示している。
FIG. 6 shows an example of focus adjustment.
This figure shows a screen for adjusting the focus of the video camera 50 on the screen.

このフォーカス調整の画面は、フォーカス調整の自動/マニュアル選択スイッチをマニュアルに切り替えると表示されるようになっている。   This focus adjustment screen is displayed when the automatic / manual selection switch for focus adjustment is switched to manual.

この画面において、フォーカスの調整範囲を示す縦長の調整領域41が表示される。
この調整領域41において、上端がフォーカス位置無限遠を示し、下端が最近接位置を示している。
また、調整領域41の上端側には無限遠を示す「無限」の文字を表示し、下端側には最近接位置を示す「至近」の文字を表示している。
また、調整領域41内には、現在のフォーカス位置を示す横バーであるポインタ42が表示されている。
On this screen, a vertically long adjustment area 41 indicating the focus adjustment range is displayed.
In this adjustment area 41, the upper end indicates the focus position infinity, and the lower end indicates the closest position.
In addition, an “infinity” character indicating infinity is displayed on the upper end side of the adjustment area 41, and a “closest” character indicating the closest position is displayed on the lower end side.
In the adjustment area 41, a pointer 42 which is a horizontal bar indicating the current focus position is displayed.

タッチセンサ8のタッチ面部8aを指で上方向または下方向になぞると、そのなぞった操作毎に、なぞった方向に対応する遠方向または近方向へフォーカス位置が1ステップ移動する。   When the touch surface portion 8a of the touch sensor 8 is traced upward or downward with a finger, the focus position moves one step in the far or near direction corresponding to the traced direction for each traced operation.

また、インデックス選択及びメニュー選択の場合と同様に、タッチ面部8aの上側または下側の半分の領域を所定の時間以上触れることで、その触れている領域の上下に対応づけられた遠近方向へフォーカスが予め設定されたステップ数単位で移動する。   Similarly to the case of index selection and menu selection, by touching the upper half or lower half of the touch surface 8a for a predetermined time or more, focusing in the perspective direction corresponding to the top and bottom of the touched area is performed. Moves in increments of a preset number of steps.

これにより、ステップ数が多いフォーカス調整動作において、1ステップ毎の微妙なフォーカス調整と、無限遠方から最近接位置までの任意の区間でのフォーカスの高速移動を、1つの入力操作子(タッチセンサ8)で実行することができる。   Thereby, in a focus adjustment operation with a large number of steps, a fine focus adjustment for each step and a high-speed movement of the focus in an arbitrary section from an infinite distance to the closest position are performed by one input operator (touch sensor 8). ) Can be executed.

このフォーカス調整と同様に、ワイドとテレとの間のズーム操作,明るさのマニュアル調整などを行うことができ、いずれの場合も、同様の効果を得ることができる。   Similar to this focus adjustment, zooming between wide and tele, manual adjustment of brightness, etc. can be performed, and in either case, the same effect can be obtained.

次に、図7のフローチャートを用い上述したフォーカス調整動作について詳述する。   Next, the focus adjustment operation described above will be described in detail using the flowchart of FIG.

まず、ビデオカメラ50の電源をオンにする(STEP21)   First, the video camera 50 is turned on (STEP 21).

撮影スイッチにより撮影モードに設定する(STEP22)   The shooting mode is set by the shooting switch (STEP 22).

制御部12は、タッチセンサ8のタッチ面部8aの上半分領域と下半分領域のどちらに人体が触れているかの判定を、検出部8b1〜8b4からの出力信号に基づいて行う(STEP23)。   The control unit 12 determines whether the human body is touching the upper half region or the lower half region of the touch surface 8a of the touch sensor 8 based on output signals from the detection units 8b1 to 8b4 (STEP 23).

上半分と判定した場合、制御部12は、タッチ面部8aへの接触がスライド操作(なぞり操作)なのか、移動のないタップ操作なのかを判定する(STEP24)。
これは、出力信号の送出元の検出部8b1〜8b4が、時系列的に変わるか否かで判定する。時系列的に変われば、スライド操作であり、変わらなければタップ操作である。
When it determines with the upper half, the control part 12 determines whether the contact to the touch surface part 8a is a slide operation (tracing operation), or a tap operation without a movement (STEP24).
This is determined by whether or not the detectors 8b1 to 8b4 that are the output signal transmission sources change in time series. If it changes in time series, it is a slide operation, and if it does not change, it is a tap operation.

制御部12は、スライド操作と判定した場合、フォーカス位置を無限遠側に1ステップ移動させる(STEP25)。   When determining that the operation is a slide operation, the control unit 12 moves the focus position to the infinity side by one step (STEP 25).

タップ操作と判断した場合、接触時間を判定する(STEP26)。
この接触時間の判定は、設定された時間以上か未満かで判定する。
When it is determined that the operation is a tap operation, the contact time is determined (STEP 26).
The contact time is determined based on whether it is greater than or less than the set time.

この実施例では、2秒を基準値としているので、接触が2秒以上であれば、フォーカスを無限遠側に所定のステップ数t1(t1:2以上の整数)だけ移動させる(STEP27)。この例ではt1=10である。接触が2秒未満の場合は、そのまま維持する(STEP28)。   In this embodiment, since 2 seconds is set as a reference value, if the contact is 2 seconds or more, the focus is moved to the infinity side by a predetermined number of steps t1 (t1: integer of 2 or more) (STEP 27). In this example, t1 = 10. If the contact is less than 2 seconds, it is maintained as it is (STEP 28).

STEP23で、下半分領域と判定した場合、制御部12は、STEP24と同様の、タッチ面部8aへの接触がスライド操作(なぞり操作)なのか、移動のないタップ操作なのかを判定する(STEP29)。   If it is determined in STEP 23 that the lower half region is present, the control unit 12 determines whether the touch on the touch surface portion 8a is a slide operation (tracing operation) or a tap operation without movement, as in STEP 24 (STEP 29). .

制御部12は、スライド操作と判定した場合、フォーカスを至近側に1ステップ移動させる(STEP30)。   When it is determined that the operation is a slide operation, the control unit 12 moves the focus to the closest side by one step (STEP 30).

タップ操作と判断した場合、SETP26と同様に接触時間を判定する(STEP31)。   If it is determined that the operation is a tap operation, the contact time is determined in the same manner as in SETP 26 (STEP 31).

接触が2秒以上であれば、フォーカスを至近側に所定のステップ数t2(t2:2以上の整数)だけ移動させる(STEP32)。この例ではt2=10である。接触が2秒未満の場合は、そのまま維持する(STEP33)。   If the contact is 2 seconds or more, the focus is moved to the closest side by a predetermined number of steps t2 (t2: an integer of 2 or more) (STEP 32). In this example, t2 = 10. If the contact is less than 2 seconds, it is maintained as it is (STEP 33).

上述した選択例あるいは調整例において、カーソルの移動において移動できる選択領域がない場合,表示中のページが末端ページの場合、または、ポインタの移動において、すでに無限遠方か最近接位置にフィーカスがある場合は、カーソルやポインタが移動可能範囲の末端にあることを示すテキストまたはマークなどを表示する。   In the above selection example or adjustment example, when there is no selection area that can be moved by moving the cursor, the displayed page is the end page, or the movement of the pointer is already at infinity or at the closest position Displays a text or mark indicating that the cursor or pointer is at the end of the movable range.

このように、タッチセンサ8には、少なくとも2つの機能が割り当てられている。
具体的には、所定時間未満の接触でのすべり操作によるカーソルの単発移動動作指示または1ステップ毎の調整位置の移動動作指示、及び、所定時間以上の接触による、ページ送り動作指示,所定の選択領域数毎の送り動作指示,または所定のステップ数毎の調整位置の移動動作指示である。
Thus, at least two functions are assigned to the touch sensor 8.
Specifically, a single movement operation instruction of the cursor by a sliding operation with a contact for less than a predetermined time or a movement operation instruction for an adjustment position for each step, and a page feed operation instruction by a contact for a predetermined time or longer, a predetermined selection This is a feed operation instruction for each number of regions or an adjustment position movement operation instruction for each predetermined number of steps.

複数の機能をそれよりも少ない数の入力操作子で実行できるので、表示部2の枠部2a2の限られたスペースを効率よく活用できる。   Since a plurality of functions can be executed with a smaller number of input operators, the limited space of the frame 2a2 of the display unit 2 can be used efficiently.

タッチセンサ9A〜9Eについては、単独の機能が割り当てられている。
例えば、タッチセンサ9Aは、カーソルで選択された選択領域の決定指令を発信するものであり、タッチセンサ9Eは、メニュー画面を表示させる指令を発信するものである。
A single function is assigned to the touch sensors 9A to 9E.
For example, the touch sensor 9A transmits a command for determining the selection area selected by the cursor, and the touch sensor 9E transmits a command for displaying a menu screen.

このビデオカメラ50は、図1を基にした上述のように、タッチセンサ8と協働する別のタッチセンサ18(以下、区別のため便宜的にサブタッチセンサ18とも称する)を備えている。   As described above based on FIG. 1, the video camera 50 includes another touch sensor 18 that cooperates with the touch sensor 8 (hereinafter also referred to as a sub-touch sensor 18 for the sake of convenience).

具体的には、このサブタッチセンサ18は、タッチセンサ8の上方側の、操作面2bと筐体2aの天側の側面2eとに跨るように、設けられている。
すなわち、このサブタッチセンサ18は、長手を有する細長のタッチ面部8aを有するタッチセンサ8に対し、その長手方向の延長上に配設されている。
Specifically, the sub touch sensor 18 is provided so as to straddle the operation surface 2b above the touch sensor 8 and the side surface 2e on the top side of the housing 2a.
That is, the sub touch sensor 18 is disposed on the extension in the longitudinal direction of the touch sensor 8 having the long and narrow touch surface portion 8a.

そのため、図14に示すように、サブタッチセンサ18を左手の人指し指Y1で触りながら、タッチセンサ8を親指Y2で操作することができ、2つのセンサに対して容易に入力を行うことができる。この操作は、サブタッチセンサ18とタッチセンサ8との相対位置がちょうど手と指の自然な状態に適合しているので、極めてスムーズに行うことができる。
そして、サブタッチセンサ18に対して人体の接触がされているか、接触がされていないか、を、サブタッチセンサ18からの信号出力の有無により制御部12が判定し、その有無に応じてタッチセンサ8の操作に伴って出力された信号に基づいて行う表示画面の変化を異ならせる。
また、装置自体の動作を異ならせてもよい。
Therefore, as shown in FIG. 14, the touch sensor 8 can be operated with the thumb Y2 while touching the sub-touch sensor 18 with the forefinger Y1 of the left hand, and inputs can be easily made to the two sensors. This operation can be performed very smoothly since the relative position between the sub-touch sensor 18 and the touch sensor 8 is just adapted to the natural state of the hand and the finger.
Then, the control unit 12 determines whether or not a human body is in contact with the sub-touch sensor 18 based on the presence or absence of a signal output from the sub-touch sensor 18 and touches according to the presence or absence. The change of the display screen performed based on the signal output with the operation of the sensor 8 is varied.
Further, the operation of the apparatus itself may be varied.

次に、そのサブタッチセンサ18の作用について詳述する。   Next, the operation of the sub touch sensor 18 will be described in detail.

ここで説明する例は、上述したインデックス検索の例である。   The example described here is an example of the index search described above.

図8は、図3に相当する図であり、「シーン1」から「シーン9」までの9つのシーンに対応した選択領域がマトリックス状にて画面に表示されている。   FIG. 8 is a diagram corresponding to FIG. 3, and selection areas corresponding to nine scenes from “scene 1” to “scene 9” are displayed in a matrix on the screen.

上述したシーンのインデックス検索例においては、カーソルの移動をシーンの番号の昇降で行うものであったが、この例では、画面の上下左右の方向で実行するものである。
そのために、使用者が、予め、カーソルの移動を、番号の昇降移動とするか、画面の上下左右方向に移動するかを選択できるようにしてある。
In the above-described scene index search example, the cursor is moved by moving up and down the scene number. In this example, the cursor is moved in the vertical and horizontal directions of the screen.
For this purpose, the user can select in advance whether the movement of the cursor is to move the number up or down or to move in the vertical and horizontal directions on the screen.

そして、上下左右方向への移動を選択した場合に、サブタッチセンサ18に触れずにタッチセンサ8を操作した場合は、タッチセンサ8に対する上下操作が、カーソルの上下方向の移動に対応するように設定されている。   If the touch sensor 8 is operated without touching the sub touch sensor 18 when the movement in the up / down / left / right direction is selected, the up / down operation on the touch sensor 8 corresponds to the up / down movement of the cursor. Is set.

ここで、図8に示すように、操作ガイダンスマーク19を表示させてもよい。
この操作ガイダンスマーク19は、タッチセンサ8の操作により、カーソルが、図8における上下方向へ移動することを示すマークである。
Here, as shown in FIG. 8, an operation guidance mark 19 may be displayed.
The operation guidance mark 19 is a mark indicating that the cursor moves in the vertical direction in FIG. 8 by the operation of the touch sensor 8.

このマーク18の具体的例としては、上方向と下方向とを向く両矢印形状のマークである。また、図8のように、両矢印近傍に「上」及び「下」の文字表示をさせてもよい。   A specific example of the mark 18 is a double-arrow mark that faces upward and downward. Further, as shown in FIG. 8, “up” and “down” characters may be displayed near the double-headed arrow.

図9は、サブタッチセンサ18に触れた状態でタッチセンサ8を操作した場合を示している。   FIG. 9 shows a case where the touch sensor 8 is operated while touching the sub touch sensor 18.

この場合、タッチセンサ8の上下操作が、カーソルの左右方向の移動に対応するように設定されている。
そして、操作ガイダンスマーク19は、カーソルが左右方向に移動することを示す操作ガイダンスマーク20が表示される。
In this case, the vertical operation of the touch sensor 8 is set so as to correspond to the movement of the cursor in the horizontal direction.
The operation guidance mark 19 displays an operation guidance mark 20 indicating that the cursor moves in the left-right direction.

このマーク19の具体的例としては、左方向と右方向とを向く両矢印形状のマークである。また、図9のように、両矢印近傍に「左」及び「右」の文字表示をさせてもよい。   A specific example of the mark 19 is a double-arrow mark that faces leftward and rightward. In addition, as shown in FIG. 9, the characters “left” and “right” may be displayed near the double-headed arrow.

図10は、この場合の動作の一部であって、カーソルの上下移動と左右移動とを判別する工程を含むフローチャートである。   FIG. 10 is a flowchart showing a part of the operation in this case and including a step of discriminating the vertical movement and the horizontal movement of the cursor.

図10に示すように、電源を投入し(STEP81)、再生モードに設定(STEP82)したのち、制御部12は、入力操作子NSによりカーソル昇降移動か方向移動かを選択する(STEP83)。   As shown in FIG. 10, after the power is turned on (STEP 81) and the playback mode is set (STEP 82), the control unit 12 selects the cursor up / down movement or the direction movement by the input operator NS (STEP 83).

次に、制御部12は、サブタッチセンサ18への人体の接触有無を判定し(STEP84)、触れられていれば、制御部12は、カーソルの左右方向移動(横移動)モードに設定する(STEP85)。   Next, the control unit 12 determines whether or not the human body is in contact with the sub-touch sensor 18 (STEP 84), and if it is touched, the control unit 12 sets the cursor in the left / right movement (lateral movement) mode ( (STEP 85).

サブタッチセンサ18に触れられていなければ、制御部12は、カーソルの上下方向移動(縦移動)モードに設定する(STEP86)。   If the sub-touch sensor 18 is not touched, the control unit 12 sets the cursor in the vertical movement (vertical movement) mode (STEP 86).

タッチセンサ8及びサブタッチセンサ18は、画面直近の画面枠に設けられて画面に表示されたアイコン,マーク,または選択領域に対応した複数の動作を協働して効率良く実行できるものであるが、さらに、画面から離れた位置にさらに別のタッチセンサ28,29(以下、補助タッチセンサ28,29とも称する)を設けて、タッチセンサ8及びサブタッチセンサ18と協働させてもよい。   The touch sensor 8 and the sub-touch sensor 18 are provided in a screen frame closest to the screen and can efficiently execute a plurality of operations corresponding to icons, marks, or selection areas displayed on the screen in cooperation with each other. Furthermore, further touch sensors 28 and 29 (hereinafter also referred to as auxiliary touch sensors 28 and 29) may be provided at positions away from the screen to cooperate with the touch sensor 8 and the sub touch sensor 18.

以下に、その例1と例2とについて説明する。   Examples 1 and 2 will be described below.

(補助タッチセンサ例1)
図11は、ビデオカメラ50の本体部1の後方側上面に配置された、楕円形状の静止画撮影ボタン21と、それを囲繞するように設けられた補助タッチセンサ28とを示している(図1も参照)。
(Auxiliary touch sensor example 1)
FIG. 11 shows an elliptical still image shooting button 21 and an auxiliary touch sensor 28 provided so as to surround the button, which are arranged on the upper surface on the rear side of the main body 1 of the video camera 50 (FIG. 11). 1).

また、この静止画撮影ボタン21の近傍には、ズームレバー(音量制御兼用)22が配設されている。   In addition, a zoom lever (also used for volume control) 22 is disposed in the vicinity of the still image shooting button 21.

ビデオメラ50は、動画と静止画とを撮影することが可能である。
そして、この静止画撮影ボタン21は、その静止画撮影モードにおいて押し下げられると、その時点での静止画像を取り込んでメモリに保存するように制御部12に指令するトリガスイッチとして機能する。
The video mela 50 can shoot moving images and still images.
When the still image shooting button 21 is depressed in the still image shooting mode, it functions as a trigger switch for instructing the control unit 12 to capture the still image at that time and store it in the memory.

このビデオカメラ50は、静止画撮影ボタン21に指が載せられると、自ずとその周囲の補助タッチセンサ28にもその指が触れることを利用し、触れたときに静止画撮影モードに自動的に移行するように設定されている。   This video camera 50 uses the fact that when the finger is put on the still image shooting button 21, the finger touches the auxiliary touch sensor 28 around it, and when it touches, the video camera 50 automatically shifts to the still image shooting mode. It is set to be.

静止画撮影モードに移行した際には、表示パネル2cに表示される画面も、静止画撮影モード時の表示に自動的に変わり、タッチセンサ8及びサブタッチセンサ18の機能もその静止画撮影モード時の表示に対応した機能が制御部12により割り当てられる。   When shifting to the still image shooting mode, the screen displayed on the display panel 2c automatically changes to the display in the still image shooting mode, and the functions of the touch sensor 8 and the sub touch sensor 18 are also changed to the still image shooting mode. Functions corresponding to the time display are assigned by the control unit 12.

図12は、この場合の動作における、補助タッチセンサ28に指などの人体が触れられているか否かにより、動画撮影モードと静止が撮影モードとを切り替える工程を含むフローチャートである。   FIG. 12 is a flowchart including a step of switching between the moving image shooting mode and the still shooting mode depending on whether or not a human body such as a finger is touching the auxiliary touch sensor 28 in the operation in this case.

図12に示すように、電源を投入したのち(STEP91)、補助タッチセンサ28に接触があるか無いかを、制御部12は判定する(STEP92)。   As shown in FIG. 12, after the power is turned on (STEP 91), the control unit 12 determines whether or not the auxiliary touch sensor 28 is touched (STEP 92).

補助タッチセンサ28に触れられていれば、制御部12は、静止画像撮影モードに設定する(STEP93)。
補助タッチセンサ28に触れられていなければ、制御部12は、動画撮影モードに設定する(STEP94)。
If the auxiliary touch sensor 28 is touched, the control unit 12 sets the still image shooting mode (STEP 93).
If the auxiliary touch sensor 28 is not touched, the control unit 12 sets the moving image shooting mode (STEP 94).

(補助タッチセンサ例2)
図1において、ビデオカメラ50は、グリップ部4を手で把持した際に必ず掌が当たる位置に、補助タッチセンサ29が配設されている。
(Auxiliary touch sensor example 2)
In FIG. 1, the video camera 50 is provided with an auxiliary touch sensor 29 at a position where a palm always comes into contact with the grip portion 4 when it is held by hand.

そして、グリップ部4が手で把持され、この補助タッチセンサ29に接触があり、さらに、録画のトリガーボタン23が押し込まれると主電源が投入される。   Then, the grip portion 4 is gripped by hand, the auxiliary touch sensor 29 is touched, and the main power is turned on when the recording trigger button 23 is pressed.

通常、ビデオカメラの電源投入ボタンとして、押しボタンを採用することは、バックなどに入れた際の誤入力を防ぐために避けられる。   Usually, the use of a push button as a power-on button of a video camera is avoided in order to prevent erroneous input when it is put in the back.

そのため、押しボタン単独ではなく、このように補助タッチセンサ29と押しボタンとを組み合わせることで、誤操作が防止でき、操作性が向上し、ボタン類を削減することでより一層の小型化が図れる。   Therefore, by combining the auxiliary touch sensor 29 and the push button in this way instead of the push button alone, an erroneous operation can be prevented, the operability is improved, and the buttons can be further reduced in size.

図13は、主電源がオフであって、電源が待機状態にある場合に、補助タッチセンサ29に掌などが触れられているか否かにより、制御部が、主電源をオンにするかオフのままとするかを選択する工程を含むフローチャートである。   FIG. 13 shows that when the main power supply is off and the power supply is in a standby state, the control unit turns on or off the main power supply depending on whether or not a palm is touched on the auxiliary touch sensor 29. It is a flowchart including the process of selecting whether to remain.

図13に示すように、補助タッチセンサ29に人体の接触があるか無いかを、制御部12は判定する(STEP131)。   As shown in FIG. 13, the control unit 12 determines whether or not the auxiliary touch sensor 29 is touched by a human body (STEP 131).

補助タッチセンサ29に接触がない場合は、制御部12は、主電源をオフのままとする(STEP132)。
補助タッチセンサ28に接触がある場合、制御部12は、トリガースイッチ(撮影スイッチ)23の押し込み有無を判定する(STEP133)。
If there is no contact with the auxiliary touch sensor 29, the control unit 12 keeps the main power off (STEP 132).
When there is contact with the auxiliary touch sensor 28, the control unit 12 determines whether or not the trigger switch (photographing switch) 23 is pressed (STEP 133).

トリガスイッチ23が押し込まれたら、制御部12は、主電源をオンにする(STEP134)。   When the trigger switch 23 is pushed, the control unit 12 turns on the main power supply (STEP 134).

トリガスイッチ23が押し込まれていなければ、制御部12は、主電源をオフのままで維持する(STEP135)。
そして、再び補助タッチセンサ28の接触有無を判定し、これを繰り返す。
If the trigger switch 23 is not depressed, the control unit 12 keeps the main power supply off (STEP 135).
Then, the presence / absence of contact of the auxiliary touch sensor 28 is determined again, and this is repeated.

以上詳述したように、サブタッチセンサ18及び補助タッチセンサ28は、いずれも、タッチされる度に入力を認識して信号を出力するものではなく、タッチされている状態で常に信号を出力するものである。   As described above in detail, each of the sub touch sensor 18 and the auxiliary touch sensor 28 does not recognize an input every time it is touched and outputs a signal, but always outputs a signal in a touched state. Is.

そして、このサブタッチセンサ18または補助タッチセンサ28に対して指などが接触中の状態にあるか、または、接触してない状態にあるか、で、制御部12は、メインとなるタッチセンサ8の機能を切り替える。   Then, the control unit 12 determines whether the sub-touch sensor 18 or the auxiliary touch sensor 28 is in contact with the finger or the like, or not in contact with the main touch sensor 8. Switching the function.

そのため、タッチセンサ8の単独では限界があった多くの機能の兼用を、サブタッチセンサ18または補助タッチセンサ28と組み合わせることで、行わせることができる。   Therefore, a combination of many functions, which are limited by the touch sensor 8 alone, can be performed by combining with the sub touch sensor 18 or the auxiliary touch sensor 28.

一方、サブタッチセンサ18または補助タッチセンサ28に対する接触を、タッチセンサ8の入力を許容する条件とすれば、タッチセンサ8のみの短時間の接触は実質的に無視されるので、意図せずタッチセンサ8に触れて誤入力されるという不具合は生じにくくなっている。   On the other hand, if the contact with the sub-touch sensor 18 or the auxiliary touch sensor 28 is a condition that allows the input of the touch sensor 8, a short-time contact with only the touch sensor 8 is substantially ignored. The problem of erroneous input by touching the sensor 8 is less likely to occur.

ここで、タッチセンサ8,サブタッチセンサ18,及び補助タッチセンサ28,29は、その指などをタッチするタッチ面部8a,18a,28aに、他の部位との区別のために窪みや出っ張りをつけるなどするとよい。   Here, the touch sensor 8, the sub-touch sensor 18, and the auxiliary touch sensors 28 and 29 provide depressions or protrusions on the touch surface portions 8a, 18a, and 28a for touching the finger or the like to distinguish them from other parts. Etc.

図15は、その一例としてタッチセンサ8のタッチ部面部8aに窪みである凹部8a1を設けた例である。
凹部8a1にはさらにシボ加工を施してもよい。
FIG. 15 shows an example in which a concave portion 8 a 1 that is a depression is provided in the touch portion surface portion 8 a of the touch sensor 8.
The concave portion 8a1 may be further subjected to texture processing.

各タッチセンサ8,18,28,29と操作子群9のタッチセンサとは、互いに区別できるように、異なる形状、異なる表面処理状態、で形成されているとよい。   The touch sensors 8, 18, 28, 29 and the touch sensors of the operator group 9 may be formed in different shapes and different surface treatment states so that they can be distinguished from each other.

特に、ビデオカメラなどの撮像装置や、車載用の画像表示装置の場合は、センサを目視で確認することができない、または、し難いので、触感のみで触っているセンサの種類を判別できるのは望ましい。   In particular, in the case of an imaging device such as a video camera or an in-vehicle image display device, it is difficult or impossible to visually check the sensor. desirable.

本発明の実施例は、上述した構成及び手順に限定されるものではなく、本発明の要旨を逸脱しない範囲において変形例としてもよいのは言うまでもない。
本発明は、実施例で説明した撮像装置に適用が限定されるものではない。画像を表示する表示パネルを筐体に納めて、筐体にタッチセンサを配設した機器であれば、適用が可能である。
具体的な機器の例としては、携帯電話,ポータブル音楽/映像プレーヤ,携帯情報端末(PDA),ポータブルナビゲーション装置(PND),ゲーム機,パーソナルコンピュータ(PC)などがある。
The embodiment of the present invention is not limited to the configuration and procedure described above, and it goes without saying that modifications may be made without departing from the scope of the present invention.
The application of the present invention is not limited to the imaging device described in the embodiments. The present invention can be applied to any device in which a display panel for displaying an image is housed in a housing and a touch sensor is provided in the housing.
Specific examples of the device include a mobile phone, a portable music / video player, a personal digital assistant (PDA), a portable navigation device (PND), a game machine, and a personal computer (PC).

本発明の撮像装置の実施例を説明するための斜視図である。It is a perspective view for demonstrating the Example of the imaging device of this invention. 本発明の撮像装置の実施例を説明するためのブロック図である。It is a block diagram for demonstrating the Example of the imaging device of this invention. 本発明の撮像装置の実施例における表示部を説明するための平面図である。It is a top view for demonstrating the display part in the Example of the imaging device of this invention. 本発明の撮像装置の実施例におけるインデックス操作のフローチャートである。It is a flowchart of the index operation in the Example of the imaging device of this invention. 本発明の撮像装置の実施例におけるメニュー操作画面を説明するための平面図である。It is a top view for demonstrating the menu operation screen in the Example of the imaging device of this invention. 本発明の撮像装置の実施例におけるフォーカス調整画面を説明するための平面図である。It is a top view for demonstrating the focus adjustment screen in the Example of the imaging device of this invention. 本発明の撮像装置の実施例におけるフォーカス調整のフローチャートである。It is a flowchart of focus adjustment in the Example of the imaging device of this invention. 本発明の撮像装置の他の実施例の表示部を説明するための平面図である。It is a top view for demonstrating the display part of the other Example of the imaging device of this invention. 本発明の撮像装置の他の実施例の作用を説明するための平面図である。It is a top view for demonstrating the effect | action of the other Example of the imaging device of this invention. 本発明の撮像装置の他の実施例の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the other Example of the imaging device of this invention. 本発明の撮像装置の他の実施例における補助タッチセンサを説明するための図である。It is a figure for demonstrating the auxiliary | assistant touch sensor in the other Example of the imaging device of this invention. 本発明の撮像装置の他の実施例における補助タッチセンサの例1の操作を説明するためのフローチャートである。It is a flowchart for demonstrating operation of the example 1 of the auxiliary | assistant touch sensor in the other Example of the imaging device of this invention. 本発明の撮像装置の他の実施例における補助タッチセンサの例2の操作を説明するためのフローチャートである。It is a flowchart for demonstrating operation of the example 2 of the auxiliary | assistant touch sensor in the other Example of the imaging device of this invention. 本発明の撮像装置の実施例におけるサブタッチセンサを説明するための斜視図である。It is a perspective view for demonstrating the sub touch sensor in the Example of the imaging device of this invention. 本発明の撮像装置の実施例におけるタッチセンサを説明するための部分断面図である。It is a fragmentary sectional view for demonstrating the touch sensor in the Example of the imaging device of this invention.

符号の説明Explanation of symbols

1 本体部
1a ヒンジ部
2 表示部
2a 筐体
2a1 (左側の)枠部
2a2 (下側の)枠部
2b 一面(操作面)
2b1 開口部(窓部)
2b1−L 左辺
2c 表示パネル
2d 一側面
3 レンズ部
4 グリップ部
5 撮像素子
6 ハードディスク装置
6a ハードディスク(記録媒体)
6b メモリーカード(記録媒体)
7 制御部
8 タッチセンサ
8a タッチ面部
8b1〜8b4 検出部
9 操作子群
9A〜9E タッチセンサ
10 信号処理部
11a カメラ制御回路
11b 画像処理回路
11c ENC/DEC回路
12 CPU(制御部)
13a,13b,13c バッファメモリ
14 アナログI/F
18 サブタッチセンサ
19,20 操作ガイダンスマーク
21 静止画ボタン
22 ズームレバー
23 トリガーボタン
28,29 補助タッチセンサ
30 電源(バッテリ)
31 外部入出力部
41 調整領域
50 ビデオカメラ
CL1,CL2 回動軸
NS 入力操作子
S1 映像信号
S2,S2s,S2d 入力操作信号
SR1〜SR9 選択領域
DESCRIPTION OF SYMBOLS 1 Main-body part 1a Hinge part 2 Display part 2a Housing | casing 2a1 (left side) frame part 2a2 (lower side) frame part 2b One surface (operation surface)
2b1 opening (window)
2b1-L Left side 2c Display panel 2d One side surface 3 Lens portion 4 Grip portion 5 Image sensor 6 Hard disk device 6a Hard disk (recording medium)
6b Memory card (recording medium)
7 control unit 8 touch sensor 8a touch surface unit 8b1 to 8b4 detection unit 9 operator group 9A to 9E touch sensor 10 signal processing unit 11a camera control circuit 11b image processing circuit 11c ENC / DEC circuit 12 CPU (control unit)
13a, 13b, 13c Buffer memory 14 Analog I / F
18 Sub-touch sensor 19, 20 Operation guidance mark 21 Still image button 22 Zoom lever 23 Trigger button 28, 29 Auxiliary touch sensor 30 Power supply (battery)
31 External input / output unit 41 Adjustment area 50 Video camera CL1, CL2 Rotating axis NS Input operation element S1 Video signal S2, S2s, S2d Input operation signal SR1-SR9 Selection area

Claims (6)

画像を表示する画像表示パネルと、
前記画像表示パネルを収容すると共に前記画像を外部から臨める矩形の窓部が設けられた筐体と、
タッチ面に対する人体の接触で信号を出力し、前記タッチ面が前記筐体における前記窓部の一辺に沿って細長形状で露出するよう前記筐体に設けられた第1のタッチセンサと、
タッチ面に対する人体の接触で信号を出力する第2のタッチセンサと、
前記第1のタッチセンサから出力された信号を検出し、その信号に基づいて前記画像を変化させて表示する制御部と、を備え、
前記制御部は、前記第2のタッチセンサからの出力がない状態で前記第1のタッチセンサから前記信号が出力された場合と、前記第2のタッチセンサからの出力がある状態で前記第1のタッチセンサから信号が出力された場合とで、前記画像の変化を異ならせる画像表示装置。
An image display panel for displaying images;
A housing provided with a rectangular window for accommodating the image display panel and facing the image from the outside;
A first touch sensor provided in the casing so as to output a signal by contact of the human body with the touch surface, and the touch surface is exposed in an elongated shape along one side of the window portion in the casing;
A second touch sensor that outputs a signal upon contact of the human body with the touch surface;
A control unit that detects a signal output from the first touch sensor and changes and displays the image based on the signal; and
The controller is configured to output the first touch sensor when there is no output from the second touch sensor and when the signal is output from the first touch sensor. An image display device that changes the change of the image depending on whether a signal is output from the touch sensor.
前記第2のタッチセンサは、前記筐体における前記第1のタッチセンサの長手方向の延長上に配設されていることを特徴とする請求項1記載の画像表示装置。   The image display device according to claim 1, wherein the second touch sensor is disposed on an extension of the first touch sensor in the longitudinal direction in the housing. 前記制御部は、当該画像表示装置の電源が待機状態にあり、かつ、前記第2のタッチセンサの出力がある状態で前記第1のタッチセンサから信号が出力された場合に、当該画像表示装置の主電源を投入することを特徴とする請求項1記載の画像表示装置。   When the power of the image display device is in a standby state and a signal is output from the first touch sensor with the output of the second touch sensor, the control unit The image display apparatus according to claim 1, wherein the main power supply is turned on. 撮影レンズを介した被写体像を光電変換して画像信号を出力する撮像素子と、
前記画像信号に基づく画像を表示する画像表示パネルと、
前記画像表示パネルを収容すると共に前記画像を外部から臨める矩形の窓部が設けられた筐体と、
タッチ面に対する人体の接触で信号を出力し、前記タッチ面が前記筐体における前記窓部の一辺に沿って細長形状で露出するよう前記筐体に設けられた第1のタッチセンサと、
タッチ面に対する人体の接触で信号を出力する第2のタッチセンサと、
前記第1のタッチセンサから出力された信号を検出し、その信号に基づいて前記画像を変化させて表示する制御部と、を備え、
前記制御部は、前記第2のタッチセンサからの出力がない状態で前記第1のタッチセンサから前記信号が出力された場合と、前記第2のタッチセンサからの出力がある状態で前記第1のタッチセンサから信号が出力された場合とで、前記画像の変化を異ならせる撮像装置。
An image sensor that photoelectrically converts a subject image via a photographing lens and outputs an image signal;
An image display panel for displaying an image based on the image signal;
A housing provided with a rectangular window for accommodating the image display panel and facing the image from the outside;
A first touch sensor provided in the casing so as to output a signal by contact of the human body with the touch surface, and the touch surface is exposed in an elongated shape along one side of the window portion in the casing;
A second touch sensor that outputs a signal upon contact of the human body with the touch surface;
A control unit that detects a signal output from the first touch sensor and changes and displays the image based on the signal; and
The controller is configured to output the first touch sensor when there is no output from the second touch sensor and when the signal is output from the first touch sensor. An image pickup apparatus that changes the change in the image depending on whether a signal is output from the touch sensor.
前記第2のタッチセンサは、前記筐体における前記第1のタッチセンサの長手方向の延長上に配設されていることを特徴とする請求項3記載の撮像装置。   The imaging apparatus according to claim 3, wherein the second touch sensor is disposed on a longitudinal extension of the first touch sensor in the housing. 前記制御部は、当該撮像装置の電源が待機状態にあり、かつ、前記第2のタッチセンサの出力がある状態で前記第1のタッチセンサから信号が出力された場合に、当該撮像装置の主電源を投入することを特徴とする請求項4記載の撮像装置。   The control unit is configured to control a main unit of the imaging device when a signal is output from the first touch sensor in a state where the power source of the imaging device is in a standby state and the output of the second touch sensor is present. The imaging apparatus according to claim 4, wherein power is turned on.
JP2007340075A 2007-12-28 2007-12-28 Image display apparatus and imaging apparatus Pending JP2009164757A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007340075A JP2009164757A (en) 2007-12-28 2007-12-28 Image display apparatus and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007340075A JP2009164757A (en) 2007-12-28 2007-12-28 Image display apparatus and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2009164757A true JP2009164757A (en) 2009-07-23

Family

ID=40966882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007340075A Pending JP2009164757A (en) 2007-12-28 2007-12-28 Image display apparatus and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2009164757A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011070544A (en) * 2009-09-28 2011-04-07 Brother Industries Ltd Processing executing device
JP2013110631A (en) * 2011-11-22 2013-06-06 Olympus Imaging Corp Photographing device and photographing device control method
WO2015163151A1 (en) * 2014-04-24 2015-10-29 株式会社村田製作所 Tactile-sense presentation device
KR101831147B1 (en) * 2010-04-28 2018-02-26 가부시키가이샤 한도오따이 에네루기 켄큐쇼 Semiconductor display device and driving method the same
JP2020003734A (en) * 2018-06-29 2020-01-09 キヤノン株式会社 Electronic apparatus
JP2020009419A (en) * 2018-06-29 2020-01-16 キヤノン株式会社 Electronic device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8922495B2 (en) 2009-09-28 2014-12-30 Brother Kogyo Kabushiki Kaisha Input device with display panel
JP2011070544A (en) * 2009-09-28 2011-04-07 Brother Industries Ltd Processing executing device
US10871841B2 (en) 2010-04-28 2020-12-22 Semiconductor Energy Laboratory Co., Ltd. Semiconductor display device and driving method the same
US11983342B2 (en) 2010-04-28 2024-05-14 Semiconductor Energy Laboratory Co., Ltd. Semiconductor display device and driving method the same
US11392232B2 (en) 2010-04-28 2022-07-19 Semiconductor Energy Laboratory Co., Ltd. Semiconductor display device and driving method the same
KR101831147B1 (en) * 2010-04-28 2018-02-26 가부시키가이샤 한도오따이 에네루기 켄큐쇼 Semiconductor display device and driving method the same
US10013087B2 (en) 2010-04-28 2018-07-03 Semiconductor Energy Laboratory Co., Ltd. Semiconductor display device and driving method the same
JP2013110631A (en) * 2011-11-22 2013-06-06 Olympus Imaging Corp Photographing device and photographing device control method
WO2015163151A1 (en) * 2014-04-24 2015-10-29 株式会社村田製作所 Tactile-sense presentation device
JPWO2015163151A1 (en) * 2014-04-24 2017-04-13 株式会社村田製作所 Tactile presentation device
JP6065158B2 (en) * 2014-04-24 2017-01-25 株式会社村田製作所 Tactile presentation device
JP2020009419A (en) * 2018-06-29 2020-01-16 キヤノン株式会社 Electronic device
JP2020003734A (en) * 2018-06-29 2020-01-09 キヤノン株式会社 Electronic apparatus
JP7071234B2 (en) 2018-06-29 2022-05-18 キヤノン株式会社 Electronics

Similar Documents

Publication Publication Date Title
US8082522B2 (en) Electronic apparatus
JP4179269B2 (en) Portable electronic device, display method, program thereof, and display operation device
JP5514683B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5487679B2 (en) Information processing apparatus, information processing method, and information processing program
US20100103136A1 (en) Image display device, image display method, and program product
JP2007264808A (en) Display input device and imaging apparatus
JP5832077B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
US20090172598A1 (en) Multimedia reproducing apparatus and menu screen display method
KR20070089681A (en) Content playback device with touch screen
JP5645626B2 (en) Display control apparatus, display control method, program, and storage medium
US8516395B2 (en) One-dimensional representation of a two-dimensional data structure
JP2008090753A (en) User interface device and digital camera
JP5360166B2 (en) Image display device
JP2009164757A (en) Image display apparatus and imaging apparatus
JP2005143109A (en) Slider bar interface for digital camera
JP6120699B2 (en) Electronic device, control method and program thereof, and storage medium
JP2010245843A (en) Image display device
JP2006018645A (en) Display apparatus
KR20170074782A (en) Electronic device, method for controlling the same, and storage medium
US20170147194A1 (en) Electronic apparatus equipped with a touch operation section
JP4648217B2 (en) Image device, method of selecting processed image
CN114071011A (en) Display control apparatus, control method for controlling the same, and recording medium
US8477101B2 (en) Reading device for electronic document and operation method of reading electronic document
KR20090046189A (en) Method and apparatus for controlling operations using progress bar
JP4203759B2 (en) Display device with touch panel