JP2013117891A - User interface device - Google Patents

User interface device Download PDF

Info

Publication number
JP2013117891A
JP2013117891A JP2011265477A JP2011265477A JP2013117891A JP 2013117891 A JP2013117891 A JP 2013117891A JP 2011265477 A JP2011265477 A JP 2011265477A JP 2011265477 A JP2011265477 A JP 2011265477A JP 2013117891 A JP2013117891 A JP 2013117891A
Authority
JP
Japan
Prior art keywords
detection means
detection
change
detecting
operation surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011265477A
Other languages
Japanese (ja)
Inventor
Miki Uchiyama
美紀 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2011265477A priority Critical patent/JP2013117891A/en
Publication of JP2013117891A publication Critical patent/JP2013117891A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To be able to improve both of diversity and operability in operable scenes.SOLUTION: A user interface device includes: a capacitance type touch sensor 40a for detecting a variation in potential applied to the surface of a monitor screen; a light detection type touch sensor 40b for detecting a variation in light volume irradiating the surface of the monitor screen; an underwater sensor 48 for detecting that a current position of a digital camera 10 is under water; a CPU 28 for starting the touch sensor 40a and stopping the touch sensor 40b according to non-detection of the underwater sensor 48, and starting the touch sensor 40b according to detection of the underwater sensor 48, thus executing different processing according to a detection mode of the touch sensors 40a and/or 40b turned on and off.

Description

この発明は、ユーザインタフェース装置に関し、特にタッチ操作の態様に応じて異なる処理を実行する、ユーザインタフェース装置に関する。   The present invention relates to a user interface device, and more particularly, to a user interface device that executes different processes depending on a touch operation mode.

この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、防水構造の水中ハウジングは、情報機器を着脱自在に収納するために準備される。情報機器内に設けられたタッチパネルには、複数の操作ボタンが配置される。光検出ペンは、水中ハウジングの外部から変調光を出力する。複数の受光素子は、タッチパネルに配置された複数の操作ボタンと同一の視角内に設けられ、光検出ペンから出力された変調光を受光する。情報機器に設けられた検出部は、変調光を受光した受光素子と同一視角内の操作ボタンを上述の複数の操作ボタンの中から検出する。なお、情報機器が水中ハウジングから取り外された状態では、光出力ペンに類似した形状の操作部の影に注目して操作ボタンが検出される。   An example of this type of device is disclosed in Patent Document 1. According to this background art, the waterproof underwater housing is prepared for detachably storing information equipment. A plurality of operation buttons are arranged on a touch panel provided in the information device. The light detection pen outputs modulated light from the outside of the underwater housing. The plurality of light receiving elements are provided within the same viewing angle as the plurality of operation buttons arranged on the touch panel, and receive the modulated light output from the light detection pen. A detection unit provided in the information device detects an operation button within the same viewing angle as the light receiving element that receives the modulated light from the plurality of operation buttons. When the information device is removed from the underwater housing, the operation button is detected by paying attention to the shadow of the operation unit having a shape similar to that of the light output pen.

特開2010−191608号公報JP 2010-191608 A

しかし、背景技術では、情報機器を水中ハウジングに収納する場合および情報機器を水中ハウジングから取り外す場合のいずれにおいても、操作ボタンは複数の受光素子の出力に基づいて検出される。このため、操作ボタンの検出精度ひいては操作性に限界がある。   However, in the background art, the operation button is detected based on the outputs of the plurality of light receiving elements both when the information device is stored in the underwater housing and when the information device is removed from the underwater housing. For this reason, there is a limit to the detection accuracy of the operation buttons and the operability.

それゆえに、この発明の主たる目的は、操作可能な場面の多様性および操作性の両方を高めることができる、ユーザインタフェース装置を提供することである。   Therefore, a main object of the present invention is to provide a user interface device capable of enhancing both the diversity of operable scenes and the operability.

この発明に従うユーザインタフェース装置(10:実施例で相当する参照符号。以下同じ)は、操作面(SCR)に印加される電位の変化および/または操作面に加えられる圧力の変化を検知する第1検知手段(40a)、操作面に照射される光量の変化を検知する第2検知手段(40b)、現在位置が既定条件を満足することを検知する第3検知手段(48)、第3検知手段の非検知に対応して第1検知手段を起動しかつ第2検知手段を停止する第1制御手段(S3, S13~S15)、第3検知手段の検知に対応して第2検知手段を起動する第2制御手段(S3, S11)、および第1検知手段および/または第2検知手段の検知態様に応じて異なる処理を実行する処理手段(S29~S31, S25~S41)を備える。   A user interface device according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) detects a change in potential applied to the operation surface (SCR) and / or a change in pressure applied to the operation surface. Detection means (40a), second detection means (40b) for detecting a change in the amount of light applied to the operation surface, third detection means (48) for detecting that the current position satisfies a predetermined condition, and third detection means First control means (S3, S13 to S15) for starting the first detection means and stopping the second detection means in response to non-detection of the second, and starting the second detection means in response to detection by the third detection means Second control means (S3, S11) and processing means (S29 to S31, S25 to S41) for executing different processes depending on the detection mode of the first detection means and / or the second detection means.

好ましくは、第2制御手段の処理に関連して第1検知手段を停止する停止手段(S9)がさらに備えられる。   Preferably, a stop means (S9) for stopping the first detection means in relation to the processing of the second control means is further provided.

好ましくは、撮像面で捉えられた光学像に対応する電子画像を出力する撮像手段(20)がさらに備えられ、処理手段は、撮像手段の設定を調整する設定調整手段(S31)、および撮像手段から出力された電子画像を記録する記録手段(S37, S41)を含む。   Preferably, an imaging means (20) for outputting an electronic image corresponding to the optical image captured on the imaging surface is further provided, and the processing means is a setting adjustment means (S31) for adjusting settings of the imaging means, and the imaging means. Recording means (S37, S41) for recording the electronic image output from the.

好ましくは、第1検知手段および第2検知手段の各々の注目対象は操作面への指の接触に起因する変化に相当する。   Preferably, each target object of the first detection unit and the second detection unit corresponds to a change caused by a finger touching the operation surface.

好ましくは、既定条件は現在位置が水中であるという第1環境条件を含む。   Preferably, the predetermined condition includes a first environmental condition that the current position is underwater.

好ましくは、既定条件は現在位置の高度が基準を上回るという第2環境条件を含む。   Preferably, the predetermined condition includes a second environmental condition that the altitude of the current position exceeds a reference.

この発明に従う動作制御プログラムは、操作面(SCR)に印加される電位の変化および/または操作面に加えられる圧力の変化を検知する第1検知手段(40a)、操作面に照射される光量の変化を検知する第2検知手段(40b)、および現在位置が既定条件を満足することを検知する第3検知手段(48)を備えるユーザインタフェース装置(10)のプロセッサ(28)に、第3検知手段の非検知に対応して第1検知手段を起動しかつ第2検知手段を停止する第1制御ステップ(S3, S13~S15)、第3検知手段の検知に対応して第2検知手段を起動する第2制御ステップ(S3, S11)、および第1検知手段および/または第2検知手段の検知態様に応じて異なる処理を実行する処理ステップ(S29~S31, S25~S41)を実行させるための、動作制御プログラムである。   The operation control program according to the present invention includes a first detection means (40a) for detecting a change in potential applied to the operation surface (SCR) and / or a change in pressure applied to the operation surface, and the amount of light applied to the operation surface. A third detection is provided to the processor (28) of the user interface device (10) including the second detection means (40b) for detecting a change and the third detection means (48) for detecting that the current position satisfies a predetermined condition. A first control step (S3, S13 to S15) for starting the first detection means and stopping the second detection means in response to non-detection of the means, and a second detection means in response to detection by the third detection means In order to execute the second control step (S3, S11) to be activated and the processing steps (S29 to S31, S25 to S41) for executing different processes depending on the detection mode of the first detection means and / or the second detection means This is an operation control program.

この発明に従う動作制御方法は、操作面(SCR)に印加される電位の変化および/または操作面に加えられる圧力の変化を検知する第1検知手段(40a)、操作面に照射される光量の変化を検知する第2検知手段(40b)、および現在位置が既定条件を満足することを検知する第3検知手段(48)を備えるユーザインタフェース装置(10)によって実行される動作制御方法であって、第3検知手段の非検知に対応して第1検知手段を起動しかつ第2検知手段を停止する第1制御ステップ(S3, S13~S15)、第3検知手段の検知に対応して第2検知手段を起動する第2制御ステップ(S3, S11)、および第1検知手段および/または第2検知手段の検知態様に応じて異なる処理を実行する処理ステップ(S29~S31, S25~S41)を備える。   The motion control method according to the present invention includes a first detection means (40a) for detecting a change in potential applied to the operation surface (SCR) and / or a change in pressure applied to the operation surface, An operation control method executed by a user interface device (10) comprising second detection means (40b) for detecting a change and third detection means (48) for detecting that the current position satisfies a predetermined condition. The first control step (S3, S13 to S15) for starting the first detection means and stopping the second detection means in response to the non-detection of the third detection means, and the first control step corresponding to the detection of the third detection means 2nd control step (S3, S11) for activating the two detection means, and processing steps (S29 to S31, S25 to S41) for executing different processes according to the detection mode of the first detection means and / or the second detection means Is provided.

この発明に従う外部制御プログラムは、操作面(SCR)に印加される電位の変化および/または操作面に加えられる圧力の変化を検知する第1検知手段(40a)、操作面に照射される光量の変化を検知する第2検知手段(40b)、現在位置が既定条件を満足することを検知する第3検知手段(48)、およびメモリ(50)に保存された内部制御プログラムに従う処理を実行するプロセッサ(28)を備えるユーザインタフェース装置(10)に供給される外部制御プログラムであって、第3検知手段の非検知に対応して第1検知手段を起動しかつ第2検知手段を停止する第1制御ステップ(S3, S13~S15)、第3検知手段の検知に対応して第2検知手段を起動する第2制御ステップ(S3, S11)、および第1検知手段および/または第2検知手段の検知態様に応じて異なる処理を実行する処理ステップ(S29~S31, S25~S41)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。   The external control program according to the present invention includes a first detection means (40a) for detecting a change in potential applied to the operation surface (SCR) and / or a change in pressure applied to the operation surface, and the amount of light applied to the operation surface. Second detection means (40b) for detecting a change, third detection means (48) for detecting that the current position satisfies a predetermined condition, and a processor for executing processing according to an internal control program stored in the memory (50) An external control program supplied to the user interface device (10) comprising (28), wherein the first detection means is activated and the second detection means is stopped in response to non-detection of the third detection means. A control step (S3, S13 to S15), a second control step (S3, S11) for starting the second detection means in response to detection by the third detection means, and the first detection means and / or the second detection means. Processing that executes different processing depending on the detection mode For execution by the processor step of (S29 ~ S31, S25 ~ S41) in cooperation with the internal control program, which is an external control program.

この発明に従うユーザインタフェース装置(10)は、操作面(SCR)に印加される電位の変化および/または操作面に加えられる圧力の変化を検知する第1検知手段(40a)、操作面に照射される光量の変化を検知する第2検知手段(40b)、現在位置が既定条件を満足することを検知する第3検知手段(48)、外部制御プログラムを取り込む取り込み手段(52)、および取り込み手段によって取り込まれた外部制御プログラムとメモリ(50)に保存された内部制御プログラムとに従う処理を実行するプロセッサ(28)を備えるユーザインタフェース装置であって、外部制御プログラムは、第3検知手段の非検知に対応して第1検知手段を起動しかつ第2検知手段を停止する第1制御ステップ(S3, S13~S15)、第3検知手段の検知に対応して第2検知手段を起動する第2制御ステップ(S3, S11)、および第1検知手段および/または第2検知手段の検知態様に応じて異なる処理を実行する処理ステップ(S29~S31, S25~S41)を内部制御プログラムと協働して実行するプログラムに相当する。   A user interface device (10) according to the present invention is irradiated with a first detection means (40a) for detecting a change in potential applied to the operation surface (SCR) and / or a change in pressure applied to the operation surface. A second detection means (40b) for detecting a change in the amount of light to be detected, a third detection means (48) for detecting that the current position satisfies a predetermined condition, a capture means (52) for capturing an external control program, and a capture means A user interface device including a processor (28) that executes processing according to a fetched external control program and an internal control program stored in a memory (50), wherein the external control program is not detected by the third detection means. Correspondingly, a first control step (S3, S13 to S15) for starting the first detecting means and stopping the second detecting means, and a second control for starting the second detecting means in response to the detection of the third detecting means. Step (S3, S11) and processing steps (S29 to S31, S25 to S41) for executing different processes depending on the detection mode of the first detection means and / or the second detection means are executed in cooperation with the internal control program It corresponds to the program to do.

この発明によれば、既定条件から外れる位置では、操作面に印加される電位の変化および/または操作面に加えられる圧力の変化に注目して、ユーザ操作が検知される。これに対して、既定条件を満足する位置では、操作面に照射される光量の変化に注目してユーザ操作が検知される。これによって、操作可能な場面の多様性および操作性の両方を高めることができる。   According to the present invention, at a position deviating from the predetermined condition, a user operation is detected by paying attention to a change in potential applied to the operation surface and / or a change in pressure applied to the operation surface. On the other hand, at a position satisfying the predetermined condition, a user operation is detected by paying attention to a change in the amount of light irradiated on the operation surface. As a result, it is possible to enhance both the diversity of the operable scenes and the operability.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of one Example of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 図2実施例に適用されるSDRAMのマッピング状態の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a mapping state of an SDRAM applied to the embodiment in FIG. 2; 図2実施例に適用されるLCDモニタに表示されたアイコンの一例を示す図解図である。It is an illustration figure which shows an example of the icon displayed on the LCD monitor applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. この発明の他の実施例の構成を示すブロック図である。It is a block diagram which shows the structure of the other Example of this invention.

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この実施例のユーザインタフェース装置は、基本的に次のように構成される。第1検知手段1は、操作面に印加される電位の変化および/または操作面に加えられる圧力の変化を検知する。第2検知手段2は、操作面に照射される光量の変化を検知する。第3検知手段3は、現在位置が既定条件を満足することを検知する。第1制御手段4は、第3検知手段3の非検知に対応して第1検知手段1を起動しかつ第2検知手段2を停止する。第2制御手段5は、第3検知手段3の検知に対応して第2検知手段2を起動する。処理手段6は、第1検知手段1および/または第2検知手段2の検知態様に応じて異なる処理を実行する。   Referring to FIG. 1, the user interface device of this embodiment is basically configured as follows. The first detection means 1 detects a change in potential applied to the operation surface and / or a change in pressure applied to the operation surface. The second detection unit 2 detects a change in the amount of light irradiated on the operation surface. The third detection means 3 detects that the current position satisfies a predetermined condition. The first control unit 4 activates the first detection unit 1 and stops the second detection unit 2 in response to the non-detection of the third detection unit 3. The second control unit 5 activates the second detection unit 2 in response to the detection by the third detection unit 3. The processing unit 6 executes different processes depending on the detection mode of the first detection unit 1 and / or the second detection unit 2.

したがって、既定条件から外れる位置では、操作面に印加される電位の変化および/または操作面に加えられる圧力の変化に注目して、ユーザ操作が検知される。これに対して、既定条件を満足する位置では、操作面に照射される光量の変化に注目してユーザ操作が検知される。これによって、操作可能な場面の多様性および操作性の両方を高めることができる。
[実施例]
Therefore, at a position outside the predetermined condition, a user operation is detected by paying attention to a change in potential applied to the operation surface and / or a change in pressure applied to the operation surface. On the other hand, at a position satisfying the predetermined condition, a user operation is detected by paying attention to a change in the amount of light irradiated on the operation surface. As a result, it is possible to enhance both the diversity of the operable scenes and the operability.
[Example]

図2を参照して、この実施例のディジタルカメラ10は、ドライバ18a,18bおよび18cによってそれぞれ駆動されるズームレンズ12,フォーカスレンズ14および絞りユニット16を含む。これらの部材を経た光学像は、イメージャ20の撮像面に照射され、光電変換を施される。これによって、光学像に対応する電荷が生成される。   Referring to FIG. 2, the digital camera 10 of this embodiment includes a zoom lens 12, a focus lens 14 and an aperture unit 16 driven by drivers 18a, 18b and 18c, respectively. The optical image that has passed through these members is irradiated onto the imaging surface of the imager 20 and subjected to photoelectric conversion. Thereby, a charge corresponding to the optical image is generated.

電源が投入されると、CPU28は、動画取り込み処理を開始するべく、撮像タスクの下で露光動作および電荷読み出し動作の繰り返しをドライバ18dに命令する。CPU28はまた、動画表示処理を開始するべく、撮像タスクの下で動画表示命令をLCDドライバ38に与える。なお、動画表示命令には、表示対象を識別する識別情報が記述される。   When the power is turned on, the CPU 28 instructs the driver 18d to repeat the exposure operation and the charge readout operation under the imaging task in order to start the moving image capturing process. The CPU 28 also gives a moving image display command to the LCD driver 38 under the imaging task in order to start the moving image display process. The moving image display command describes identification information for identifying a display target.

ドライバ18dは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、かつ撮像面で生成された電荷をラスタ走査態様で読み出す。イメージャ20からは、読み出された電荷に基づく生画像データが周期的に出力される。   In response to a vertical synchronization signal Vsync periodically generated from an SG (Signal Generator) (not shown), the driver 18d exposes the imaging surface and reads out charges generated on the imaging surface in a raster scanning manner. From the imager 20, raw image data based on the read charges is periodically output.

前処理回路22は、イメージャ20から出力された生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これらの処理を施された生画像データは、メモリ制御回路30を通してSDRAM32の生画像エリア32a(図3参照)に書き込まれる。   The preprocessing circuit 22 performs processing such as digital clamping, pixel defect correction, and gain control on the raw image data output from the imager 20. The raw image data subjected to these processes is written into the raw image area 32a (see FIG. 3) of the SDRAM 32 through the memory control circuit 30.

後処理回路34は、生画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データに色分離処理,白バランス調整処理およびYUV変換処理を施す。これによって生成されたYUV形式の画像データは、メモリ制御回路30によってSDRAM32のYUV画像エリア32b(図3参照)に書き込まれる。   The post-processing circuit 34 reads the raw image data stored in the raw image area 32a through the memory control circuit 30, and performs color separation processing, white balance adjustment processing, and YUV conversion processing on the read raw image data. The YUV format image data thus generated is written into the YUV image area 32b (see FIG. 3) of the SDRAM 32 by the memory control circuit 30.

動画表示命令に記述された識別情報は、こうしてYUV画像エリア32bに書き込まれた画像データを示す。LCDドライバ36は、YUV画像エリア32bに格納された画像データをメモリ制御回路30を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ38を駆動する。この結果、撮像面で捉えられたシーンを表すリアルタイム動画像(スルー画像)がモニタ画面に表示される。   The identification information described in the moving image display command indicates the image data thus written in the YUV image area 32b. The LCD driver 36 repeatedly reads the image data stored in the YUV image area 32b through the memory control circuit 30, and drives the LCD monitor 38 based on the read image data. As a result, a real-time moving image (through image) representing the scene captured on the imaging surface is displayed on the monitor screen.

撮像面の中央には図示しない評価エリアが割り当てられる。また、図2に示す前処理回路22は、上述した処理に加えて、生画像データを簡易的にRGBデータに変換する簡易RGB変換処理を実行する。   An evaluation area (not shown) is assigned to the center of the imaging surface. In addition to the above-described processing, the preprocessing circuit 22 shown in FIG. 2 executes simple RGB conversion processing that simply converts raw image data into RGB data.

AE評価回路24は、前処理回路22によって生成されたRGBデータのうち評価エリアに属するRGBデータを、垂直同期信号Vsyncが発生する毎に積分する。また、AF評価回路26は、前処理回路22によって生成されたRGBデータのうち評価エリアEVAに属するRGBデータの高周波成分を、垂直同期信号Vsyncが発生する毎に積分する。AE評価回路24によって算出された積分値はAE評価値としてCPU28に与えられ、AF評価回路26によって算出された積分値はAF評価値としてCPU28に与えられる。   The AE evaluation circuit 24 integrates RGB data belonging to the evaluation area among the RGB data generated by the preprocessing circuit 22 every time the vertical synchronization signal Vsync is generated. Further, the AF evaluation circuit 26 integrates the high frequency components of the RGB data belonging to the evaluation area EVA among the RGB data generated by the preprocessing circuit 22 every time the vertical synchronization signal Vsync is generated. The integral value calculated by the AE evaluation circuit 24 is given to the CPU 28 as an AE evaluation value, and the integral value calculated by the AF evaluation circuit 26 is given to the CPU 28 as an AF evaluation value.

LCDモニタ38には、静電容量型のタッチセンサ40aと光検出型のタッチセンサ40bとが設けられる。タッチセンサ40aおよび40bの動作に関連して、CPU28は、ユーザインタフェース設定タスクの下でアイコン表示命令をLCDドライバ36に与える。命令を受けたLCDドライバ36は、アイコンIC1〜IC3を図4に示す要領でモニタ画面SCRにOSD表示する。ここで、アイコンIC1は撮像操作を受け付けるためのアイコンに相当し、アイコンIC2〜IC3はズーム操作を受け付けるためのアイコンに相当する。   The LCD monitor 38 is provided with a capacitance type touch sensor 40a and a light detection type touch sensor 40b. In relation to the operation of the touch sensors 40a and 40b, the CPU 28 gives an icon display command to the LCD driver 36 under a user interface setting task. The LCD driver 36 that has received the command displays the icons IC1 to IC3 in OSD on the monitor screen SCR in the manner shown in FIG. Here, the icon IC1 corresponds to an icon for receiving an imaging operation, and the icons IC2 to IC3 correspond to icons for receiving a zoom operation.

タッチセンサ40aおよび40bのいずれも、モニタ画面SCRに対する操作者のタッチ操作を検知するために設けられる。ただし、タッチセンサ40aはモニタ画面SCRの表面に印加される電位の変化に注目してタッチ操作を検知し、タッチセンサ40bはモニタ画面SCRの表面に照射される光量の変化に注目してタッチ操作を検知する。操作者の指がモニタ画面SCRに接触すると、指の接触位置がタッチセンサ40aおよび/または40bによって特定され、特定された接触位置を示す位置情報が記述された検知信号がCPU28に与えられる。   Both touch sensors 40a and 40b are provided to detect an operator's touch operation on the monitor screen SCR. However, the touch sensor 40a detects a touch operation by paying attention to a change in potential applied to the surface of the monitor screen SCR, and the touch sensor 40b pays attention to a change in the amount of light applied to the surface of the monitor screen SCR. Is detected. When the operator's finger touches the monitor screen SCR, the contact position of the finger is specified by the touch sensors 40a and / or 40b, and a detection signal describing the position information indicating the specified contact position is given to the CPU.

検知信号が与えられない限り、CPU28は、AE評価回路24から出力されたAE評価値に基づく簡易AE処理を撮像タスクの下で実行し、適正EV値を算出する。算出された適正EV値を定義する絞り量および露光時間はドライバ18cおよび18dに設定され、これによってスルー画像の明るさが大まかに調整される。   Unless a detection signal is given, the CPU 28 executes a simple AE process based on the AE evaluation value output from the AE evaluation circuit 24 under the imaging task, and calculates an appropriate EV value. The aperture amount and exposure time that define the calculated appropriate EV value are set in the drivers 18c and 18d, whereby the brightness of the through image is roughly adjusted.

タッチセンサ40aおよび/または40bから検知信号が与えられ、かつこの検知信号に記述された位置情報がアイコンIC2またはIC3の表示位置に相当する場合、CPU26は、ズーム操作が行われたとみなして、ズームレンズ12の移動をドライバ18aに命令する。ズームレンズ12は、アイコンIC2のタッチに応答してズームイン方向に移動し、アイコンIC3のタッチに応答してズームアウト方向に移動する。この結果、スルー画像の倍率が変化する。   When a detection signal is given from the touch sensor 40a and / or 40b and the position information described in the detection signal corresponds to the display position of the icon IC2 or IC3, the CPU 26 considers that the zoom operation has been performed and zooms in. Command the driver 18a to move the lens 12. The zoom lens 12 moves in the zoom-in direction in response to the touch of the icon IC2, and moves in the zoom-out direction in response to the touch of the icon IC3. As a result, the magnification of the through image changes.

タッチセンサ40aおよび/または40bから検知信号が与えられ、かつこの検知信号に記述されたタッチ位置がアイコンIC1の表示位置に相当する場合、CPU26は、撮像操作が行われたものとみなし、動画表示処理の中断つまりデータ読み出し動作の中断をLCDドライバ36に命令する。LCDモニタ38の表示は、スルー画像から黒画像に遷移する。   When a detection signal is given from the touch sensor 40a and / or 40b and the touch position described in the detection signal corresponds to the display position of the icon IC1, the CPU 26 considers that an imaging operation has been performed and displays a moving image. The LCD driver 36 is instructed to interrupt the processing, that is, the data reading operation. The display on the LCD monitor 38 changes from a through image to a black image.

動画表示処理が中断されると、CPU26は、AE評価値を参照した厳格AE処理およびAF評価値を参照したAF処理を実行する。厳格AE処理の結果、最適EV値を定義する絞り量および露光時間がドライバ18cおよび18dに設定される。これによって、スルー画像の明るさが厳格に調整される。また、AF処理の結果、フォーカスレンズ14がドライバ18bによって合焦点に配置される。この結果、スルー画像の鮮鋭度が向上する。   When the moving image display process is interrupted, the CPU 26 executes a strict AE process referring to the AE evaluation value and an AF process referring to the AF evaluation value. As a result of the strict AE process, the aperture amount and the exposure time that define the optimum EV value are set in the drivers 18c and 18d. Thereby, the brightness of the through image is adjusted strictly. Further, as a result of the AF process, the focus lens 14 is placed at the focal point by the driver 18b. As a result, the sharpness of the through image is improved.

AF処理が完了すると、CPU26は、静止画取り込み処理を実行するとともに、プレビュー表示命令をLCDドライバ36に与える。厳格AF処理が完了した時点のシーンを表す1フレームの画像データは、静止画取り込み処理によってYUV画像エリア32bから静止画像エリア32c(図3参照)に退避される。プレビュー表示命令には、こうして静止画像エリア32cに退避された画像データを示す識別情報が表示対象として記述される。LCDドライバ36は、静止画像エリア32cに退避された画像データをメモリ制御回路30を通して読み出し、読み出された画像データに基づく画像をプレビュー画像としてLCDモニタ38に表示する。   When the AF process is completed, the CPU 26 executes a still image capturing process and gives a preview display command to the LCD driver 36. One frame of image data representing a scene at the time when the strict AF process is completed is saved from the YUV image area 32b to the still image area 32c (see FIG. 3) by the still image capturing process. In the preview display command, identification information indicating the image data thus saved in the still image area 32c is described as a display target. The LCD driver 36 reads the image data saved in the still image area 32c through the memory control circuit 30, and displays an image based on the read image data on the LCD monitor 38 as a preview image.

CPU26はその後、記録命令をメモリI/F44に与える。メモリI/F44は、静止画像エリア32cに退避された画像データをメモリ制御回路30を通して読み出し、読み出された画像データをファイル形式で記録媒体44に記録する。上述した動画表示処理(スルー画像を表示する処理)は、記録処理が完了した後に再開される。   Thereafter, the CPU 26 gives a recording command to the memory I / F 44. The memory I / F 44 reads the image data saved in the still image area 32c through the memory control circuit 30, and records the read image data on the recording medium 44 in a file format. The moving image display process (process for displaying a through image) described above is resumed after the recording process is completed.

水中センサ48は、ディジタルカメラ10の現在位置が水中であるときに検知信号を出力する。CPU28は、水中センサ48からの検知信号が出力されないとき、現在位置が水中と異なる位置(=空気中)であるとみなし、光検出型のタッチセンサ40bを停止するとともに、静電容量型のタッチセンサ40aを起動する。CPU28はまた、水中センサ48から検知信号が与えられたとき、現在位置が水中であるとみなし、静電容量型のタッチセンサ40aを停止するとともに光検出型のタッチセンサ40bを起動する。   The underwater sensor 48 outputs a detection signal when the current position of the digital camera 10 is underwater. When the detection signal from the underwater sensor 48 is not output, the CPU 28 regards the current position as a position different from underwater (= in the air), stops the photodetection type touch sensor 40b, and detects the capacitive touch. The sensor 40a is activated. Further, when a detection signal is given from the underwater sensor 48, the CPU 28 considers that the current position is underwater, stops the capacitive touch sensor 40a, and activates the light detection touch sensor 40b.

したがって、空気中では、モニタ画面SCRの表面に印加された電位の変化に注目してユーザ操作が検知される。これに対して、水中では、モニタ画面SCRの表面に照射された光量の変化に注目してユーザ操作が検知される。これによって、操作可能な場面の多様性および操作性の両方を高めることができる。   Therefore, in the air, a user operation is detected by paying attention to a change in potential applied to the surface of the monitor screen SCR. On the other hand, in water, a user operation is detected by paying attention to a change in the amount of light irradiated on the surface of the monitor screen SCR. As a result, it is possible to enhance both the diversity of the operable scenes and the operability.

なお、水中を泳ぎながらディジタルカメラ10を操作する場合、モニタ画面SCRに照射される光量は水中の環境の変化に応じて著しく変動するおそれがある。したがって、光検出型のタッチセンサ40bの出力に基づいてタッチ操作を判別するにあたっては、アイコンIC1〜IC3の表示位置に限定した局所的な光量の減衰に注目し、さらにはこのような局所的な減衰の期間に注目するのが好ましい。たとえば、アイコンIC1〜IC3のいずれか1つの位置で光量が限定的に減衰した期間が3秒間継続したときにタッチ操作が行われたと判別するような処理が考えられる。   Note that when the digital camera 10 is operated while swimming in water, the amount of light applied to the monitor screen SCR may vary significantly according to changes in the environment in water. Therefore, in determining the touch operation based on the output of the photodetection type touch sensor 40b, attention is paid to the local light amount attenuation limited to the display positions of the icons IC1 to IC3. It is preferable to focus on the period of decay. For example, a process may be considered in which it is determined that a touch operation has been performed when a period in which the amount of light has attenuated in a limited manner at any one of the icons IC1 to IC3 continues for 3 seconds.

CPU28は、図5に示すユーザインタフェース設定タスクと図6に示す撮像タスクとを含む複数のタスクをマルチタスクOSの制御の下で並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ50に記憶される。   The CPU 28 executes a plurality of tasks including the user interface setting task shown in FIG. 5 and the imaging task shown in FIG. 6 in parallel under the control of the multitask OS. Note that control programs corresponding to these tasks are stored in the flash memory 50.

図5を参照して、ステップS1ではアイコン表示命令をLCDドライバ36に向けて発行する。この結果、アイコンIC1〜IC3がOSD態様でLCDモニタ38に表示される。ステップS3ではディジタルカメラ10の現在位置が水中であるか否かを水中センサ48の出力に基づいて判別し、判別結果がYESであればステップS5に進む一方、判別結果がNOであればステップS7に進む。   Referring to FIG. 5, in step S <b> 1, an icon display command is issued toward LCD driver 36. As a result, the icons IC1 to IC3 are displayed on the LCD monitor 38 in the OSD manner. In step S3, it is determined whether or not the current position of the digital camera 10 is underwater based on the output of the underwater sensor 48. If the determination result is YES, the process proceeds to step S5. If the determination result is NO, step S7 is performed. Proceed to

ステップS5では静電容量型のタッチセンサ40aが起動中であるか否かを判別し、ステップS7では光検出型のタッチセンサ40bが起動中であるか否かをステップS9で判別する。ステップS5またはS7の判別結果がNOであればステップS3に戻り、ステップS5の判別結果がYESであればステップS9に進み、ステップS7の判別結果がYESであればステップS13に進む。   In step S5, it is determined whether or not the capacitance type touch sensor 40a is being activated. In step S7, it is determined in step S9 whether or not the light detection type touch sensor 40b is being activated. If the determination result in step S5 or S7 is NO, the process returns to step S3. If the determination result in step S5 is YES, the process proceeds to step S9. If the determination result in step S7 is YES, the process proceeds to step S13.

ステップS9ではタッチセンサ40aを停止し、ステップS11ではタッチセンサ40bを起動する。ステップS13ではタッチセンサ40bを停止し、ステップS15ではタッチセンサ40aを起動する。ステップS11またはS15の処理が完了すると、ステップS3に戻る。   In step S9, the touch sensor 40a is stopped, and in step S11, the touch sensor 40b is activated. In step S13, the touch sensor 40b is stopped, and in step S15, the touch sensor 40a is activated. When the process of step S11 or S15 is completed, the process returns to step S3.

図6を参照して、ステップS21では、動画取込み処理を開始するべく、露光動作および電荷読み出し動作の繰り返しをドライバ18cに命令する。また、ステップS23では、動画表示処理を開始するべく、動画表示命令をLCDドライバ36に与える。動画表示命令には、YUV画像エリア32bに書き込まれた画像データを示す識別情報が表示対象として記述される。この結果、撮像面で捉えられたシーンを表すスルー画像がLCDモニタ38に表示される。   Referring to FIG. 6, in step S21, the driver 18c is instructed to repeat the exposure operation and the charge readout operation in order to start the moving image capturing process. In step S23, a moving image display command is given to the LCD driver 36 to start the moving image display process. In the moving image display command, identification information indicating the image data written in the YUV image area 32b is described as a display target. As a result, a through image representing a scene captured on the imaging surface is displayed on the LCD monitor 38.

ステップS25では、撮像操作が行われたか否か(アイコンIC1がタッチされたか否か)をタッチセンサ40aおよび/または40bの出力に基づいて判別する。判別結果がNOであれば、ステップS27で簡易AE処理を繰り返す。この結果、スルー画像の明るさが大まかに調整される。   In step S25, it is determined whether or not an imaging operation has been performed (whether or not the icon IC1 has been touched) based on the output of the touch sensors 40a and / or 40b. If the determination result is NO, the simple AE process is repeated in step S27. As a result, the brightness of the through image is roughly adjusted.

簡易AE処理が完了するとステップS29に進み、ズーム操作が行われたか否か(アイコンIC2またはIC3がタッチされたか否か)をタッチセンサ40aおよび/または40bの出力に基づいて判別する。判別結果がNOであればステップS25に戻り、判別結果がYESであればステップS31に進む。   When the simple AE process is completed, the process proceeds to step S29, where it is determined whether or not a zoom operation has been performed (whether or not the icon IC2 or IC3 has been touched) based on the output of the touch sensors 40a and / or 40b. If a determination result is NO, it will return to Step S25, and if a determination result is YES, it will progress to Step S31.

ステップS31では、アイコンIC2のタッチに応答してズームレンズ12をズームイン方向に移動させ、アイコンIC3のタッチに応答してズームレンズ12をズームアウト方向に移動させる。この結果、スルー画像の倍率が変化する。ステップS31の処理が完了すると、ステップS25に戻る。   In step S31, the zoom lens 12 is moved in the zoom-in direction in response to the touch of the icon IC2, and the zoom lens 12 is moved in the zoom-out direction in response to the touch of the icon IC3. As a result, the magnification of the through image changes. When the process of step S31 is completed, the process returns to step S25.

ステップS25の判別結果がYESに更新されるとステップS33に進み、動画表示処理の中断つまりデータ読み出し動作の中断をLCDドライバ36に命令する。LCDモニタ38の表示は、スルー画像から黒画像に遷移する。続くステップS35では、厳格AE処理およびAF処理を実行する。スルー画像の明るさは厳格AE処理によって厳格に調整され、スルー画像の鮮鋭度はAF処理によって向上する。   When the determination result in step S25 is updated to YES, the process proceeds to step S33 to instruct the LCD driver 36 to interrupt the moving image display process, that is, the data reading operation. The display on the LCD monitor 38 changes from a through image to a black image. In the subsequent step S35, strict AE processing and AF processing are executed. The brightness of the through image is strictly adjusted by the strict AE process, and the sharpness of the through image is improved by the AF process.

厳格AF処理が完了すると、ステップS37で静止画取り込み処理を実行する。この結果、厳格AF処理が完了した時点のシーンを表す1フレームの画像データがYUV画像エリア32bから静止画像エリア32cに退避される。   When the strict AF process is completed, a still image capturing process is executed in step S37. As a result, one frame of image data representing the scene at the time when the strict AF processing is completed is saved from the YUV image area 32b to the still image area 32c.

ステップS39では、プレビュー画像をLCDモニタ38に表示するべく、プレビュー表示命令をLCDドライバ36に与える。プレビュー表示命令には、静止画像エリア32cに退避された画像データを示す識別情報が表示対象として記述される。この結果、退避された画像データに基づく画像がプレビュー画像としてLCDモニタ38に表示される。   In step S39, a preview display command is given to the LCD driver 36 in order to display a preview image on the LCD monitor 38. In the preview display command, identification information indicating the image data saved in the still image area 32c is described as a display target. As a result, an image based on the saved image data is displayed on the LCD monitor 38 as a preview image.

ステップS39の処理が完了するとステップS41に進み、記録命令をメモリI/F44に与える。メモリI/F44は、静止画像エリア32cに退避された画像データをメモリ制御回路30を通して読み出し、読み出された画像データをファイル形式で記録媒体46に記録する。記録処理が完了すると、ステップS43で動画表示処理を再開し、その後にステップS25に戻る。   When the process of step S39 is completed, the process proceeds to step S41, and a recording command is given to the memory I / F 44. The memory I / F 44 reads the image data saved in the still image area 32c through the memory control circuit 30, and records the read image data on the recording medium 46 in a file format. When the recording process is completed, the moving image display process is resumed in step S43, and then the process returns to step S25.

以上の説明から分かるように、静電容量型のタッチセンサ40aは、モニタ画面SCRの表面に印加された電位の変化を検知し、光検出型のタッチセンサ40bは、モニタ画面SCRの表面に照射された光量の変化を検知する。また、水中センサ48は、ディジタルカメラ10の現在位置が水中であること(現在位置が既定条件を満足すること)を検知する。CPU28は、水中センサ48の非検知に対応してタッチセンサ40aを起動しかつタッチセンサ40bを停止する(S3, S13~S15)。CPU28はまた、水中センサ48の検知に対応してタッチセンサ40bを起動する(S3, S11)。CPU28は、こうしてオン/オフされるタッチセンサ40aおよび/または40bの検知態様に応じて異なる処理を実行する(S29~S31, S25~S41)。   As can be seen from the above description, the capacitance type touch sensor 40a detects a change in potential applied to the surface of the monitor screen SCR, and the light detection type touch sensor 40b irradiates the surface of the monitor screen SCR. The change of the emitted light quantity is detected. The underwater sensor 48 detects that the current position of the digital camera 10 is underwater (the current position satisfies a predetermined condition). The CPU 28 activates the touch sensor 40a and stops the touch sensor 40b in response to the non-detection of the underwater sensor 48 (S3, S13 to S15). The CPU 28 also activates the touch sensor 40b in response to detection by the underwater sensor 48 (S3, S11). The CPU 28 executes different processes according to the detection modes of the touch sensors 40a and / or 40b thus turned on / off (S29 to S31, S25 to S41).

したがって、水中と異なる位置では、モニタ画面SCRの表面に印加された電位の変化に注目してユーザ操作が検知される。これに対して、水中では、モニタ画面SCRの表面に照射された光量の変化に注目してユーザ操作が検知される。これによって、操作可能な場面の多様性および操作性の両方を高めることができる。   Therefore, at a position different from that in water, a user operation is detected by paying attention to a change in potential applied to the surface of the monitor screen SCR. On the other hand, in water, a user operation is detected by paying attention to a change in the amount of light irradiated on the surface of the monitor screen SCR. As a result, it is possible to enhance both the diversity of the operable scenes and the operability.

なお、この実施例では、現在位置が水中であるか否かによってタッチセンサ40aおよび40bの起動/停止を制御するようにしている。しかし、現在値の高度が基準を上回るか否かによってタッチセンサ40aおよび40bの起動/停止を制御するようにしてもよい。この場合、好ましくは、水中センサ48に代えて或いは水中センサ48とともに高度センサを設け、高度が基準以下のときにタッチセンサ40aを起動しかつタッチセンサ40bを停止し、高度が基準を上回るときにタッチセンサ40aを停止しかつタッチセンサ40bを起動するような形態が想定される。これによって、たとえば手袋を装着して雪山を登るような場面でも、ユーザによるタッチ操作が実現される。   In this embodiment, activation / deactivation of the touch sensors 40a and 40b is controlled depending on whether or not the current position is underwater. However, activation / deactivation of the touch sensors 40a and 40b may be controlled depending on whether or not the altitude of the current value exceeds the reference. In this case, preferably, an altitude sensor is provided instead of the underwater sensor 48 or together with the underwater sensor 48, the touch sensor 40a is activated and the touch sensor 40b is stopped when the altitude is below the reference, and the altitude exceeds the reference It is assumed that the touch sensor 40a is stopped and the touch sensor 40b is started. Thereby, for example, even when the user wears gloves and climbs a snowy mountain, the touch operation by the user is realized.

また、この実施例では、既定条件から外れる場所(=空気中および/または高度が基準を下回る場所)で起動されるタッチセンサとして静電容量型タッチセンサを採用しているが、静電容量型タッチセンサに代えて或いは静電容量型タッチセンサとともに、感圧型タッチセンサ(圧力は、たとえばマトリクス・スイッチ方式,抵抗膜方式,表面弾性波方式で検知)を採用するようにしてもよい。この場合、タッチ操作よってモニタ画面SCRに加えられた圧力の変化が、感圧型タッチセンサによって検知される。さらに、静電容量型または感圧型のタッチセンサに代えて、電磁誘導型のタッチセンサを採用することも考えられる。   In this embodiment, a capacitive touch sensor is used as a touch sensor that is activated in a place that deviates from the predetermined condition (= in the air and / or where the altitude falls below the reference). A pressure-sensitive touch sensor (pressure is detected by, for example, a matrix switch method, a resistive film method, or a surface acoustic wave method) may be employed instead of the touch sensor or together with the capacitive touch sensor. In this case, the pressure change applied to the monitor screen SCR by the touch operation is detected by the pressure-sensitive touch sensor. Furthermore, it is conceivable to employ an electromagnetic induction type touch sensor instead of the capacitance type or pressure sensitive type touch sensor.

また、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ50に予め記憶される。しかし、図7に示すように通信I/F52をディジタルカメラ10に設け、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ50に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。   In this embodiment, the multitask OS and control programs corresponding to a plurality of tasks executed thereby are stored in the flash memory 50 in advance. However, as shown in FIG. 7, a communication I / F 52 is provided in the digital camera 10 and some control programs are prepared as internal control programs in the flash memory 50 from the beginning, while other part of the control programs are external control programs. May be acquired from an external server. In this case, the above-described operation is realized by cooperation of the internal control program and the external control program.

さらに、この実施例では、CPU28によって実行される処理を上述の要領で複数のタスクに区分するようにしている。しかし、各々のタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、各々のタスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。   Furthermore, in this embodiment, the processing executed by the CPU 28 is divided into a plurality of tasks as described above. However, each task may be further divided into a plurality of small tasks, and a part of the divided plurality of small tasks may be integrated with other tasks. Further, when each task is divided into a plurality of small tasks, all or part of the tasks may be acquired from an external server.

また、この実施例ではディジタルカメラを想定しているが、この発明はタッチ操作の態様に応じて異なる処理を実行するあらゆる電子機器に適用することができる。   In this embodiment, a digital camera is assumed. However, the present invention can be applied to any electronic device that executes different processes depending on a touch operation mode.

10 …ディジタルカメラ
12 …ズームレンズ
16 …イメージャ
22 …前処理回路
28 …CPU
34 …後処理回路
38 …LCDモニタ
40a …静電容量型タッチセンサ
40b …光検出型タッチセンサ
48 …水中センサ
DESCRIPTION OF SYMBOLS 10 ... Digital camera 12 ... Zoom lens 16 ... Imager 22 ... Pre-processing circuit 28 ... CPU
34 ... Post-processing circuit 38 ... LCD monitor 40a ... Capacitive touch sensor 40b ... Light detection touch sensor 48 ... Underwater sensor

Claims (10)

操作面に印加される電位の変化および/または前記操作面に加えられる圧力の変化を検知する第1検知手段、
前記操作面に照射される光量の変化を検知する第2検知手段、
現在位置が既定条件を満足することを検知する第3検知手段、
前記第3検知手段の非検知に対応して前記第1検知手段を起動しかつ前記第2検知手段を停止する第1制御手段、
前記第3検知手段の検知に対応して前記第2検知手段を起動する第2制御手段、および
前記第1検知手段および/または前記第2検知手段の検知態様に応じて異なる処理を実行する処理手段を備える、ユーザインタフェース装置。
First detection means for detecting a change in potential applied to the operation surface and / or a change in pressure applied to the operation surface;
A second detection means for detecting a change in the amount of light applied to the operation surface;
Third detection means for detecting that the current position satisfies a predetermined condition;
First control means for activating the first detection means and stopping the second detection means in response to non-detection of the third detection means;
A second control unit that activates the second detection unit in response to detection by the third detection unit, and a process that executes different processing depending on the detection mode of the first detection unit and / or the second detection unit A user interface device comprising means.
前記第2制御手段の処理に関連して前記第1検知手段を停止する停止手段をさらに備える、請求項1記載のユーザインタフェース装置。   The user interface device according to claim 1, further comprising a stopping unit that stops the first detection unit in association with processing of the second control unit. 撮像面で捉えられた光学像に対応する電子画像を出力する撮像手段をさらに備え、
前記処理手段は、前記撮像手段の設定を調整する設定調整手段、および前記撮像手段から出力された電子画像を記録する記録手段を含む、請求項1または2記載のユーザインタフェース装置。
An image pickup means for outputting an electronic image corresponding to the optical image captured on the image pickup surface;
The user interface device according to claim 1, wherein the processing unit includes a setting adjustment unit that adjusts a setting of the imaging unit, and a recording unit that records an electronic image output from the imaging unit.
前記第1検知手段および前記第2検知手段の各々の注目対象は前記操作面への指の接触に起因する変化に相当する、請求項1ないし3のいずれかに記載のユーザインタフェース装置。   4. The user interface device according to claim 1, wherein each target object of the first detection unit and the second detection unit corresponds to a change caused by a finger touching the operation surface. 5. 前記既定条件は現在位置が水中であるという第1環境条件を含む、請求項1ないし4のいずれかに記載のユーザインタフェース装置。   The user interface device according to claim 1, wherein the predetermined condition includes a first environmental condition that a current position is underwater. 前記既定条件は現在位置の高度が基準を上回るという第2環境条件を含む、請求項1ないし5のいずれかに記載のユーザインタフェース装置。   The user interface device according to claim 1, wherein the predetermined condition includes a second environmental condition that an altitude of a current position exceeds a reference. 操作面に印加される電位の変化および/または前記操作面に加えられる圧力の変化を検知する第1検知手段、
前記操作面に照射される光量の変化を検知する第2検知手段、および
現在位置が既定条件を満足することを検知する第3検知手段を備えるユーザインタフェース装置のプロセッサに、
前記第3検知手段の非検知に対応して前記第1検知手段を起動しかつ前記第2検知手段を停止する第1制御ステップ、
前記第3検知手段の検知に対応して前記第2検知手段を起動する第2制御ステップ、および
前記第1検知手段および/または前記第2検知手段の検知態様に応じて異なる処理を実行する処理ステップを実行させるための、動作制御プログラム。
First detection means for detecting a change in potential applied to the operation surface and / or a change in pressure applied to the operation surface;
A processor of a user interface device comprising: second detection means for detecting a change in the amount of light applied to the operation surface; and third detection means for detecting that the current position satisfies a predetermined condition,
A first control step of activating the first detection means and stopping the second detection means in response to non-detection of the third detection means;
A second control step of activating the second detection means in response to the detection of the third detection means, and a process of executing different processes depending on the detection mode of the first detection means and / or the second detection means An operation control program for executing steps.
操作面に印加される電位の変化および/または前記操作面に加えられる圧力の変化を検知する第1検知手段、
前記操作面に照射される光量の変化を検知する第2検知手段、および
現在位置が既定条件を満足することを検知する第3検知手段を備えるユーザインタフェース装置によって実行される動作制御方法であって、
前記第3検知手段の非検知に対応して前記第1検知手段を起動しかつ前記第2検知手段を停止する第1制御ステップ、
前記第3検知手段の検知に対応して前記第2検知手段を起動する第2制御ステップ、および
前記第1検知手段および/または前記第2検知手段の検知態様に応じて異なる処理を実行する処理ステップを備える、動作制御方法。
First detection means for detecting a change in potential applied to the operation surface and / or a change in pressure applied to the operation surface;
An operation control method executed by a user interface device comprising: second detection means for detecting a change in the amount of light applied to the operation surface; and third detection means for detecting that the current position satisfies a predetermined condition. ,
A first control step of activating the first detection means and stopping the second detection means in response to non-detection of the third detection means;
A second control step of activating the second detection means in response to the detection of the third detection means, and a process of executing different processes depending on the detection mode of the first detection means and / or the second detection means An operation control method comprising steps.
操作面に印加される電位の変化および/または前記操作面に加えられる圧力の変化を検知する第1検知手段、
前記操作面に照射される光量の変化を検知する第2検知手段、
現在位置が既定条件を満足することを検知する第3検知手段、および
メモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備えるユーザインタフェース装置に供給される外部制御プログラムであって、
前記第3検知手段の非検知に対応して前記第1検知手段を起動しかつ前記第2検知手段を停止する第1制御ステップ、
前記第3検知手段の検知に対応して前記第2検知手段を起動する第2制御ステップ、および
前記第1検知手段および/または前記第2検知手段の検知態様に応じて異なる処理を実行する処理ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。
First detection means for detecting a change in potential applied to the operation surface and / or a change in pressure applied to the operation surface;
A second detection means for detecting a change in the amount of light applied to the operation surface;
An external control program supplied to a user interface device comprising: third detection means for detecting that the current position satisfies a predetermined condition; and a processor for executing processing according to an internal control program stored in a memory,
A first control step of activating the first detection means and stopping the second detection means in response to non-detection of the third detection means;
A second control step of activating the second detection means in response to the detection of the third detection means, and a process of executing different processes depending on the detection mode of the first detection means and / or the second detection means An external control program for causing the processor to execute steps in cooperation with the internal control program.
操作面に印加される電位の変化および/または前記操作面に加えられる圧力の変化を検知する第1検知手段、
前記操作面に照射される光量の変化を検知する第2検知手段、
現在位置が既定条件を満足することを検知する第3検知手段、
外部制御プログラムを取り込む取り込み手段、および
前記取り込み手段によって取り込まれた外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備えるユーザインタフェース装置であって、
前記外部制御プログラムは、
前記第3検知手段の非検知に対応して前記第1検知手段を起動しかつ前記第2検知手段を停止する第1制御ステップ、
前記第3検知手段の検知に対応して前記第2検知手段を起動する第2制御ステップ、および
前記第1検知手段および/または前記第2検知手段の検知態様に応じて異なる処理を実行する処理ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、ユーザインタフェース装置。
First detection means for detecting a change in potential applied to the operation surface and / or a change in pressure applied to the operation surface;
A second detection means for detecting a change in the amount of light applied to the operation surface;
Third detection means for detecting that the current position satisfies a predetermined condition;
A user interface device comprising: a capturing unit that captures an external control program; and a processor that executes processing according to the external control program captured by the capturing unit and the internal control program stored in a memory,
The external control program is
A first control step of activating the first detection means and stopping the second detection means in response to non-detection of the third detection means;
A second control step of activating the second detection means in response to the detection of the third detection means, and a process of executing different processes depending on the detection mode of the first detection means and / or the second detection means A user interface device corresponding to a program for executing steps in cooperation with the internal control program.
JP2011265477A 2011-12-05 2011-12-05 User interface device Pending JP2013117891A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011265477A JP2013117891A (en) 2011-12-05 2011-12-05 User interface device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011265477A JP2013117891A (en) 2011-12-05 2011-12-05 User interface device

Publications (1)

Publication Number Publication Date
JP2013117891A true JP2013117891A (en) 2013-06-13

Family

ID=48712400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011265477A Pending JP2013117891A (en) 2011-12-05 2011-12-05 User interface device

Country Status (1)

Country Link
JP (1) JP2013117891A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015185171A (en) * 2014-03-24 2015-10-22 株式会社 ハイヂィープ Underwater operation method of camera
KR101752315B1 (en) * 2014-04-22 2017-06-29 주식회사 하이딥 Underwater control method of camera

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015185171A (en) * 2014-03-24 2015-10-22 株式会社 ハイヂィープ Underwater operation method of camera
JP2017174447A (en) * 2014-03-24 2017-09-28 株式会社 ハイディープHiDeep Inc. Underwater camera operating method
US10104270B2 (en) 2014-03-24 2018-10-16 Hideep Inc. Method for operating camera underwater
US10404898B2 (en) 2014-03-24 2019-09-03 Hideep Inc. Method for operating camera underwater
KR101752315B1 (en) * 2014-04-22 2017-06-29 주식회사 하이딥 Underwater control method of camera

Similar Documents

Publication Publication Date Title
US10469737B2 (en) Display control device and display control method
US8659681B2 (en) Method and apparatus for controlling zoom using touch screen
EP2574041B1 (en) Image capturing apparatus and control method thereof
EP2688283B1 (en) Dynamic region of interest adaptation and image capture device providing same
CN107197141B (en) Imaging device, imaging method thereof, and storage medium storing tracking program capable of being processed by computer
JP5361528B2 (en) Imaging apparatus and program
US8823864B2 (en) Image capturing apparatus and associated methodology for auto-focus and facial detection
KR101624218B1 (en) Digital photographing apparatus and controlling method thereof
US10055081B2 (en) Enabling visual recognition of an enlarged image
US9131143B2 (en) Dynamic region of interest adaptation and image capture device providing same
JP5381486B2 (en) Imaging apparatus and method
US9891814B2 (en) Display control apparatus and method for displaying information related to icons
EP3259658B1 (en) Method and photographing apparatus for controlling function based on gesture of user
JP5956836B2 (en) Imaging apparatus, display control method, and program
JPWO2010073619A1 (en) Imaging device
JP2018129765A (en) Imaging apparatus and control method
JP2016012872A (en) Photographing device and photographing method
JP2010213057A (en) Image pickup device, method for controlling the same, program, and recording medium
JP2014103547A (en) Electronic camera
KR101650930B1 (en) The interface of the camera provided in a mobile terminal system settings
JP2013117891A (en) User interface device
JP5229928B1 (en) Gaze position specifying device and gaze position specifying program
JP6834988B2 (en) Control device
JP6679430B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP2015114880A (en) Display device with touch panel