JP2014157463A - User interface device - Google Patents

User interface device Download PDF

Info

Publication number
JP2014157463A
JP2014157463A JP2013027638A JP2013027638A JP2014157463A JP 2014157463 A JP2014157463 A JP 2014157463A JP 2013027638 A JP2013027638 A JP 2013027638A JP 2013027638 A JP2013027638 A JP 2013027638A JP 2014157463 A JP2014157463 A JP 2014157463A
Authority
JP
Japan
Prior art keywords
gui
touch panel
user interface
search
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013027638A
Other languages
Japanese (ja)
Inventor
Seiji Koshiyama
誠司 腰山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xacti Corp
Original Assignee
Xacti Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xacti Corp filed Critical Xacti Corp
Priority to JP2013027638A priority Critical patent/JP2014157463A/en
Publication of JP2014157463A publication Critical patent/JP2014157463A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve the operability of a PC in a remote control operation.SOLUTION: An imager 16 outputs raw image data indicating a scene captured by an imaging surface. The output raw image data is converted into image data of a YUV form by a pre-processing circuit 20 and post-processing circuit 34. A CPU 26 searches the converted image data for one or two or more feature images indicating one or two or more GUI functions for operating a PC connected to the outside, and assigns the one or two or more GUI functions to a touch panel 38 on the basis of the search result. The CPU 26 also detects a GUI function assigned to the touch position on the touch panel 38, and transfers, to the PC, a command corresponding to the detected GUI function.

Description

この発明は、ユーザインタフェース装置に関し、特に1または2以上のGUI(Graphic User Interface)画像をタッチパネルに表示する、ユーザインタフェース装置に関する。   The present invention relates to a user interface device, and more particularly to a user interface device that displays one or more GUI (Graphic User Interface) images on a touch panel.

この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、タッチパネルは複数の領域に分割され、かつ各領域に所定の操作が割り付けられる。この割り付けは、フル画面表示への移行時などにユーザに対して提示される。これによって、簡易かつ的確な再生画像の切り替えが実現される。   An example of this type of device is disclosed in Patent Document 1. According to this background art, the touch panel is divided into a plurality of areas, and a predetermined operation is assigned to each area. This assignment is presented to the user when shifting to a full screen display. Thereby, simple and accurate switching of the reproduced image is realized.

特開2009−10774号公報JP 2009-10774 A

しかし、背景技術は、外部装置を遠隔操作することを想定しておらず、操作性に限界がある。   However, the background art does not assume that an external device is remotely operated, and has limited operability.

それゆえに、この発明の主たる目的は、外部装置の遠隔操作に関する操作性を高めることができる、ユーザインタフェース装置を提供することである。   Therefore, a main object of the present invention is to provide a user interface device capable of enhancing the operability related to remote operation of an external device.

この発明に従うユーザインタフェース装置(10:実施例で相当する参照符号。以下同じ)は、撮像面で捉えられたシーンを表す電子画像を出力する撮像手段(16)、外部装置を操作するための1または2以上のGUI機能をそれぞれ表す1または2以上の特徴画像を撮像手段の出力から探索する探索手段(S43~S49)、探索手段の探索結果に基づいて1または2以上のGUI機能をタッチパネル(38)に割り当てる割り当て手段(S51~S53)、タッチパネル上のタッチ位置に割り当てられたGUI機能を割り当て手段の処理に関連して検出する検出手段(S61~S67)、および検出手段によって検出されたGUI機能に対応する命令を外部装置に転送する転送手段(S69)を備える。   A user interface device according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) is an imaging unit (16) for outputting an electronic image representing a scene captured on an imaging plane, and 1 for operating an external device. Alternatively, search means (S43 to S49) for searching for one or more feature images respectively representing two or more GUI functions from the output of the image pickup means, and one or more GUI functions based on the search result of the search means (touch panel) Allocating means (S51 to S53) to be assigned to 38), detecting means (S61 to S67) for detecting the GUI function assigned to the touch position on the touch panel in relation to the processing of the assigning means, and GUI detected by the detecting means Transfer means (S69) is provided for transferring a command corresponding to the function to the external device.

好ましくは、割り当て手段は探索手段によって探知された特徴画像が表すGUI機能を探索手段によって探知された特徴画像のシーン上の位置に対応してタッチパネルに割り当てる。   Preferably, the assigning means assigns the GUI function represented by the feature image detected by the searching means to the touch panel corresponding to the position on the scene of the feature image detected by the searching means.

好ましくは、撮像手段から出力された電子画像を記録操作に応答して記録する記録手段(S13, S17~S19)、および記録手段によって記録された電子画像を再生操作に応答して再生する再生手段(S23~S25)がさらに備えられ、探索手段は再生手段によって再生された電子画像に注目して処理を実行する。   Preferably, recording means (S13, S17 to S19) for recording the electronic image output from the imaging means in response to the recording operation, and reproducing means for reproducing the electronic image recorded by the recording means in response to the reproducing operation (S23 to S25) are further provided, and the search means pays attention to the electronic image reproduced by the reproduction means and executes the processing.

さらに好ましくは、再生手段は電子画像をタッチパネルに表示する表示手段(S25)を含み、割り当て手段は表示手段の処理と並列して1または2以上のGUI機能をタッチパネルに割り当てる。   More preferably, the reproducing means includes display means (S25) for displaying an electronic image on the touch panel, and the assigning means assigns one or more GUI functions to the touch panel in parallel with the processing of the display means.

この発明に従うユーザインタフェース制御プログラムは、撮像面で捉えられたシーンを表す電子画像を出力する撮像手段(16)を備えるユーザインタフェース装置(10)のプロセッサ(26)に、外部装置を操作するための1または2以上のGUI機能をそれぞれ表す1または2以上の特徴画像を撮像手段の出力から探索する探索ステップ(S43~S49)、探索ステップの探索結果に基づいて1または2以上のGUI機能をタッチパネル(38)に割り当てる割り当てステップ(S51~S53)、タッチパネル上のタッチ位置に割り当てられたGUI機能を割り当てステップの処理に関連して検出する検出ステップ(S61~S67)、および検出ステップによって検出されたGUI機能に対応する命令を外部装置に転送する転送ステップ(S69)を実行させるための、ユーザインタフェース制御プログラムである。   A user interface control program according to the present invention is for operating an external device on a processor (26) of a user interface device (10) including an imaging means (16) that outputs an electronic image representing a scene captured on an imaging surface. A search step (S43 to S49) for searching for one or two or more feature images respectively representing one or more GUI functions from the output of the imaging means, and one or more GUI functions based on the search result of the search step (38) an allocation step (S51 to S53), a detection step (S61 to S67) for detecting the GUI function allocated to the touch position on the touch panel in association with the process of the allocation step, and a detection step. A user interface control program for executing a transfer step (S69) for transferring a command corresponding to the GUI function to an external device. A gram.

この発明に従うユーザインタフェース制御方法は、撮像面で捉えられたシーンを表す電子画像を出力する撮像手段(16)を備えるユーザインタフェース装置(10)によって実行されるユーザインタフェース制御方法であって、外部装置を操作するための1または2以上のGUI機能をそれぞれ表す1または2以上の特徴画像を撮像手段の出力から探索する探索ステップ(S43~S49)、探索ステップの探索結果に基づいて1または2以上のGUI機能をタッチパネル(38)に割り当てる割り当てステップ(S51~S53)、タッチパネル上のタッチ位置に割り当てられたGUI機能を割り当てステップの処理に関連して検出する検出ステップ(S61~S67)、および検出ステップによって検出されたGUI機能に対応する命令を外部装置に転送する転送ステップ(S69)を備える。   A user interface control method according to the present invention is a user interface control method executed by a user interface device (10) including an imaging means (16) for outputting an electronic image representing a scene captured on an imaging surface, and comprising an external device A search step (S43 to S49) for searching for one or more feature images respectively representing one or more GUI functions for operating the camera from the output of the imaging means, one or more based on the search result of the search step Assigning step (S51 to S53) for assigning the GUI function to the touch panel (38), detecting step (S61 to S67) for detecting the GUI function assigned to the touch position on the touch panel in relation to the process of the assigning step, and detecting A transfer step (S69) of transferring an instruction corresponding to the GUI function detected in the step to an external device is provided.

この発明に従う外部制御プログラムは、撮像面で捉えられたシーンを表す電子画像を出力する撮像手段(16)、およびメモリ(48)に保存された内部制御プログラムに従う処理を実行するプロセッサ(26)を備えるユーザインタフェース装置(10)に供給される外部制御プログラムであって、外部装置を操作するための1または2以上のGUI機能をそれぞれ表す1または2以上の特徴画像を撮像手段の出力から探索する探索ステップ(S43~S49)、探索ステップの探索結果に基づいて1または2以上のGUI機能をタッチパネル(38)に割り当てる割り当てステップ(S51~S53)、タッチパネル上のタッチ位置に割り当てられたGUI機能を割り当てステップの処理に関連して検出する検出ステップ(S61~S67)、および検出ステップによって検出されたGUI機能に対応する命令を外部装置に転送する転送ステップ(S69)を内部制御プログラムと協働してプロセッサに実行させるための、外部制御プログラムである。   An external control program according to the present invention includes an imaging means (16) for outputting an electronic image representing a scene captured on an imaging surface, and a processor (26) for executing processing according to an internal control program stored in a memory (48). An external control program supplied to a user interface device (10) comprising one or two or more feature images respectively representing one or more GUI functions for operating the external device are searched from the output of the imaging means. Search step (S43 to S49), assignment step (S51 to S53) for assigning one or more GUI functions to the touch panel (38) based on the search result of the search step, GUI function assigned to the touch position on the touch panel Corresponding to the detection step (S61 to S67) detected in relation to the processing of the allocation step, and the GUI function detected by the detection step For execution by the processor transfer step of transferring the decree to the external device (S69) in cooperation with the internal control program, which is an external control program.

この発明に従うユーザインタフェース装置(10)は、撮像面で捉えられたシーンを表す電子画像を出力する撮像手段(16)、外部制御プログラムを取り込む取り込み手段(50)、および取り込み手段によって取り込まれた外部制御プログラムとメモリ(48)に保存された内部制御プログラムとに従う処理を実行するプロセッサ(26)を備えるユーザインタフェース装置であって、外部制御プログラムは、外部装置を操作するための1または2以上のGUI機能をそれぞれ表す1または2以上の特徴画像を撮像手段の出力から探索する探索ステップ(S43~S49)、探索ステップの探索結果に基づいて1または2以上のGUI機能をタッチパネル(38)に割り当てる割り当てステップ(S51~S53)、タッチパネル上のタッチ位置に割り当てられたGUI機能を割り当てステップの処理に関連して検出する検出ステップ(S61~S67)、および検出ステップによって検出されたGUI機能に対応する命令を外部装置に転送する転送ステップ(S69)を内部制御プログラムと協働して実行するプログラムに相当する。   A user interface device (10) according to the present invention includes an imaging means (16) for outputting an electronic image representing a scene captured on an imaging surface, a capturing means (50) for capturing an external control program, and an external captured by the capturing means. A user interface device comprising a processor (26) for executing processing according to a control program and an internal control program stored in a memory (48), wherein the external control program is one or more for operating the external device. A search step (S43 to S49) for searching for one or more feature images each representing a GUI function from the output of the imaging means, and one or more GUI functions are assigned to the touch panel (38) based on the search result of the search step. Assigning step (S51 to S53), assigning the GUI function assigned to the touch position on the touch panel. A program for executing a detection step (S61 to S67) detected in connection with the internal control program and a transfer step (S69) for transferring a command corresponding to the GUI function detected by the detection step to an external device in cooperation with the internal control program It corresponds to.

1または2以上の特徴画像は外部装置を操作するための1または2以上のGUI機能をそれぞれ表すところ、1または2以上の特徴画像が撮像手段によって捉えられると、対応する1または2以上のGUI機能がタッチパネルに割り当てられる。タッチパネルがタッチされると、タッチ位置に割り当てられたGUI機能に対応する命令が外部装置に転送される。これによって、外部装置の遠隔操作に関する操作性が向上する。   One or more feature images represent one or more GUI functions for operating an external device, respectively. When one or more feature images are captured by the imaging unit, the corresponding one or more GUIs are displayed. Functions are assigned to the touch panel. When the touch panel is touched, a command corresponding to the GUI function assigned to the touch position is transferred to the external device. This improves the operability related to the remote operation of the external device.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of one Example of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 図2実施例に適用されるSDRAMのマッピング状態の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a mapping state of an SDRAM applied to the embodiment in FIG. 2; 撮像面における評価エリアの割り当て状態の一例を示す図解図である。It is an illustration figure which shows an example of the allocation state of the evaluation area in an imaging surface. 図2実施例に適用されるレジスタの構成の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a configuration of a register applied to the embodiment in FIG. 2; GUI画像が描かれたシートの一例を示す図解図である。It is an illustration figure which shows an example of the sheet | seat with which the GUI image was drawn. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2;

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この実施例のユーザインタフェース装置は、基本的に次のように構成される。撮像手段1は、撮像面で捉えられたシーンを表す電子画像を出力する。探索手段2は、外部装置を操作するための1または2以上のGUI機能をそれぞれ表す1または2以上の特徴画像を撮像手段1の出力から探索する。割り当て手段3は、探索手段2の探索結果に基づいて1または2以上のGUI機能をタッチパネル6に割り当てる。検出手段4は、タッチパネル6上のタッチ位置に割り当てられたGUI機能を割り当て手段3の処理に関連して検出する。転送手段5は、検出手段4によって検出されたGUI機能に対応する命令を外部装置に転送する。   Referring to FIG. 1, the user interface device of this embodiment is basically configured as follows. The imaging unit 1 outputs an electronic image representing a scene captured on the imaging surface. The search means 2 searches the output of the imaging means 1 for one or more feature images respectively representing one or more GUI functions for operating an external device. The assigning means 3 assigns one or more GUI functions to the touch panel 6 based on the search result of the search means 2. The detecting means 4 detects the GUI function assigned to the touch position on the touch panel 6 in connection with the processing of the assigning means 3. The transfer unit 5 transfers an instruction corresponding to the GUI function detected by the detection unit 4 to the external device.

1または2以上の特徴画像は外部装置を操作するための1または2以上のGUI機能をそれぞれ表すところ、1または2以上の特徴画像が撮像手段1によって捉えられると、対応する1または2以上のGUI機能がタッチパネル6に割り当てられる。タッチパネル6がタッチされると、タッチ位置に割り当てられたGUI機能に対応する命令が外部装置に転送される。これによって、外部装置の遠隔操作に関する操作性が向上する。
[実施例]
One or more feature images represent one or more GUI functions for operating an external device, respectively. When one or more feature images are captured by the imaging means 1, one or more corresponding images are displayed. A GUI function is assigned to the touch panel 6. When the touch panel 6 is touched, a command corresponding to the GUI function assigned to the touch position is transferred to the external device. This improves the operability related to the remote operation of the external device.
[Example]

図2を参照して、この実施例のディジタルカメラ10は、ドライバ18aおよび18bによってそれぞれ駆動されるフォーカスレンズ12および絞りユニット14を含む。これらの部材を経た光学像は、イメージャ16の撮像面に照射され、光電変換を施される。これによって、光学像に対応する電荷が生成される。   Referring to FIG. 2, the digital camera 10 of this embodiment includes a focus lens 12 and an aperture unit 14 driven by drivers 18a and 18b, respectively. The optical image that has passed through these members is irradiated onto the imaging surface of the imager 16 and subjected to photoelectric conversion. Thereby, a charge corresponding to the optical image is generated.

キー入力装置28に設けられたモードスイッチ28mdによってカメラモードが選択されると、CPU26は、動画取り込みの実行をドライバ18c,前処理回路20および後処理回路34に命令し、動画表示の実行をLCDドライバ36に命令する。ドライバ18cは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、かつ撮像面で生成された電荷をラスタ走査態様で読み出す。イメージャ16からは、読み出された電荷に基づく生画像データが周期的に出力される。   When the camera mode is selected by the mode switch 28 md provided in the key input device 28, the CPU 26 instructs the driver 18 c, the pre-processing circuit 20 and the post-processing circuit 34 to execute moving image capture, and displays the moving image display on the LCD. Command the driver 36. In response to a vertical synchronization signal Vsync periodically generated from an SG (Signal Generator) (not shown), the driver 18c exposes the imaging surface and reads out the charges generated on the imaging surface in a raster scanning manner. From the imager 16, raw image data based on the read charges is periodically output.

前処理回路20は、イメージャ16から出力された生画像データにディジタルクランプ,画素欠陥補正,ゲイン制御などの処理を施す。これらの処理を施された生画像データは、メモリ制御回路30を通してSDRAM32の前処理画像エリア32a(図3参照)に書き込まれる。   The preprocessing circuit 20 performs processing such as digital clamping, pixel defect correction, and gain control on the raw image data output from the imager 16. The raw image data subjected to these processes is written into the preprocessed image area 32a (see FIG. 3) of the SDRAM 32 through the memory control circuit 30.

後処理回路34は、前処理画像エリア32aに格納された生画像データをメモリ制御回路30を通して読み出し、読み出された生画像データに色分離処理,白バランス調整処理およびYUV変換処理を施す。これによって生成されたYUV形式の画像データは、メモリ制御回路30によってSDRAM32の後処理画像エリア32b(図3参照)に書き込まれる。   The post-processing circuit 34 reads the raw image data stored in the pre-processed image area 32a through the memory control circuit 30, and performs color separation processing, white balance adjustment processing, and YUV conversion processing on the read raw image data. The YUV format image data thus generated is written into the post-processing image area 32b (see FIG. 3) of the SDRAM 32 by the memory control circuit 30.

LCDドライバ36は、後処理画像エリア32bに格納された画像データをメモリ制御回路30を通して繰り返し読み出し、タッチパネル38を形成するLCDモニタ40を読み出された画像データに基づいて駆動する。この結果、撮像面で捉えられたシーンを表すリアルタイム動画像(スルー画像)がモニタ画面に表示される。   The LCD driver 36 repeatedly reads out the image data stored in the post-processing image area 32b through the memory control circuit 30, and drives the LCD monitor 40 forming the touch panel 38 based on the read image data. As a result, a real-time moving image (through image) representing the scene captured on the imaging surface is displayed on the monitor screen.

図5を参照して、撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において16分割され、256個の分割エリアが評価エリアEVAを形成する。また、図2に示す前処理回路20は、上述した処理に加えて、生画像データを簡易的にYデータに変換する簡易Y変換処理を実行する。   Referring to FIG. 5, an evaluation area EVA is allocated at the center of the imaging surface. The evaluation area EVA is divided into 16 in each of the horizontal direction and the vertical direction, and 256 divided areas form the evaluation area EVA. In addition to the above-described processing, the preprocessing circuit 20 shown in FIG. 2 executes simple Y conversion processing that simply converts raw image data into Y data.

AE評価回路22は、前処理回路20によって生成されたYデータのうち評価エリアEVAに属するYデータを、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAE評価値が、垂直同期信号Vsyncに応答してAE評価回路22から出力される。AF評価回路24は、前処理回路20によって生成されたYデータのうち評価エリアEVAに属するYデータの高周波成分を、垂直同期信号Vsyncが発生する毎に積分する。これによって、256個の積分値つまり256個のAF評価値が、垂直同期信号Vsyncに応答してAF評価回路24から出力される。   The AE evaluation circuit 22 integrates Y data belonging to the evaluation area EVA among the Y data generated by the preprocessing circuit 20 every time the vertical synchronization signal Vsync is generated. As a result, 256 integral values, that is, 256 AE evaluation values, are output from the AE evaluation circuit 22 in response to the vertical synchronization signal Vsync. The AF evaluation circuit 24 integrates the high-frequency component of Y data belonging to the evaluation area EVA among the Y data generated by the preprocessing circuit 20 every time the vertical synchronization signal Vsync is generated. As a result, 256 integral values, that is, 256 AF evaluation values, are output from the AF evaluation circuit 24 in response to the vertical synchronization signal Vsync.

キー入力装置28に設けられたシャッタボタン28shが非操作状態にあるとき、CPU26は、AE評価回路22から出力された256個のAE評価値に基づいて簡易AE処理を実行し、適正EV値を算出する。算出された適正EV値を定義する絞り量および露光時間はドライバ18bおよび18cに設定され、これによってスルー画像の明るさが大まかに調整される。   When the shutter button 28sh provided in the key input device 28 is in a non-operating state, the CPU 26 executes a simple AE process based on the 256 AE evaluation values output from the AE evaluation circuit 22, and sets an appropriate EV value. calculate. The aperture amount and exposure time that define the calculated appropriate EV value are set in the drivers 18b and 18c, whereby the brightness of the through image is roughly adjusted.

シャッタボタン28shが半押しされると、CPU26は、AE評価回路22から出力された256個のAE評価値に基づいて厳格AE処理を実行する。これによって最適EV値が算出され、算出された最適EV値を定義する絞り量および露光時間もまたドライバ18bおよび18cに設定される。この結果、スルー画像の明るさが最適値に調整される。   When the shutter button 28 sh is half-pressed, the CPU 26 executes a strict AE process based on the 256 AE evaluation values output from the AE evaluation circuit 22. Thus, the optimum EV value is calculated, and the aperture amount and the exposure time that define the calculated optimum EV value are also set in the drivers 18b and 18c. As a result, the brightness of the through image is adjusted to the optimum value.

CPU26はまた、AF評価回路24から出力された256個のAF評価値に基づいて、AF処理を実行する。フォーカスレンズ12は合焦点の探索のためにドライバ18aによって光軸方向に移動し、これによって発見された合焦点に配置される。この結果、スルー画像の鮮鋭度が向上する。   The CPU 26 also executes AF processing based on the 256 AF evaluation values output from the AF evaluation circuit 24. The focus lens 12 is moved in the optical axis direction by the driver 18a in order to search for a focal point, and is arranged at the focal point found by this. As a result, the sharpness of the through image is improved.

シャッタボタン28shが全押しされると、CPU26は、静止画取り込み処理を自ら実行し、記録処理の実行をメモリI/F44に命令する。シャッタボタン28shが全押しされた時点のシーンを表す1フレームの画像データは、静止画取り込み処理によって後処理画像エリア32bから記録画像エリア32c(図3参照)に退避される。メモリI/F44は、記録画像エリア32cに格納された1フレームの画像データをメモリ制御回路30を通して読み出し、読み出された画像データを収めた画像ファイルを記録媒体46に記録する。   When the shutter button 28sh is fully pressed, the CPU 26 executes the still image capturing process by itself and instructs the memory I / F 44 to execute the recording process. One frame of image data representing the scene at the time when the shutter button 28sh is fully pressed is saved from the post-processing image area 32b to the recording image area 32c (see FIG. 3) by the still image capturing process. The memory I / F 44 reads one frame of image data stored in the recording image area 32 c through the memory control circuit 30 and records an image file containing the read image data on the recording medium 46.

モードスイッチ28mdによって再生モードが選択されると、CPU26は、記録媒体44に記録された最新の画像ファイルを指定し、指定画像ファイルの再生をメモリI/F42に命令する。メモリI/F42は、指定画像ファイルに格納された画像データを読み出し、読み出された画像データをメモリ制御回路30を通して再生画像エリア32d(図3参照)に書き込む。   When the playback mode is selected by the mode switch 28md, the CPU 26 designates the latest image file recorded on the recording medium 44 and instructs the memory I / F 42 to play the designated image file. The memory I / F 42 reads the image data stored in the designated image file, and writes the read image data into the reproduction image area 32d (see FIG. 3) through the memory control circuit 30.

CPU26はまた、再生画表示の開始をLCDドライバ36に命令する。LCDドライバ36は、再生画像エリア32dに格納された画像データをメモリ制御回路30を通して読み出し、読み出された画像データに基づいてLCDモニタ40を駆動する。この結果、再生画像がLCDモニタ40に表示される。   The CPU 26 also instructs the LCD driver 36 to start playback image display. The LCD driver 36 reads the image data stored in the reproduction image area 32d through the memory control circuit 30, and drives the LCD monitor 40 based on the read image data. As a result, the reproduced image is displayed on the LCD monitor 40.

キー入力装置28に設けられた更新ボタン28udが操作されると、CPU26は、画像更新操作が行われたとみなし、記録媒体46に記録された別の画像ファイルを指定し、指定画像ファイルの再生をメモリI/F44に命令する。この結果、LCDモニタ40上の再生画像が更新される。   When an update button 28ud provided on the key input device 28 is operated, the CPU 26 considers that an image update operation has been performed, designates another image file recorded on the recording medium 46, and reproduces the designated image file. Commands the memory I / F 44. As a result, the reproduced image on the LCD monitor 40 is updated.

キー入力装置28に設けられたGUI設定ボタン28guiが操作されると、CPU26は、GUI設定操作が行われたとみなし、再生画像エリア32dに格納された画像データを対象としてGUI画像探索処理を実行する。GUI画像探索処理は以下の要領で実行される。   When the GUI setting button 28gui provided on the key input device 28 is operated, the CPU 26 considers that the GUI setting operation has been performed, and executes the GUI image search process for the image data stored in the reproduction image area 32d. . The GUI image search process is executed as follows.

まず、フラグFLGおよび変数Kの各々が“0”に設定され、GUI画像(=内側に文字が記述された矩形枠)が対象画像データから探索される。GUI画像が探知されると、探知されたGUI画像を定義する矩形枠の位置およびサイズが図5に示すレジスタRGSTのK番目のカラムに登録される。さらに、探知されたGUI画像上の文字に基づいてGUI機能が特定され、特定されたGUI機能がレジスタRGSTのK番目のカラムに登録される。登録が完了すると変数Kがインクリメントされ、別のGUI画像の探索が再開される。また、フラグFLGは、少なくとも1つのGUI画像が探知されたときに“1”に更新される。   First, each of the flag FLG and the variable K is set to “0”, and a GUI image (= a rectangular frame in which characters are described inside) is searched from the target image data. When the GUI image is detected, the position and size of the rectangular frame defining the detected GUI image are registered in the Kth column of the register RGST shown in FIG. Further, the GUI function is specified based on the detected character on the GUI image, and the specified GUI function is registered in the Kth column of the register RGST. When the registration is completed, the variable K is incremented, and the search for another GUI image is resumed. The flag FLG is updated to “1” when at least one GUI image is detected.

したがって、5つのGUI画像M0〜M4が図6に示す要領で描かれたシートSTがカメラモードの下で撮影され、このシートSTを表す再生画像がLCDモニタ40に表示されている状態でGUI設定ボタン28guiが操作されると、GUI画像M0の位置,サイズおよびGUI機能がレジスタRGSTの0番目のカラムに登録され、GUI画像M1の位置,サイズおよびGUI機能がレジスタRGSTの1番目のカラムに登録される。同様に、GUI画像M2の位置,サイズおよびGUI機能がレジスタRGSTの2番目のカラムに登録され、GUI画像M3の位置,サイズおよびGUI機能がレジスタRGSTの3番目のカラムに登録され、GUI画像M4の位置,サイズおよびGUI機能がレジスタRGSTの4番目のカラムに登録される。   Accordingly, the GUI setting is performed in a state where the sheet ST on which the five GUI images M0 to M4 are drawn in the manner shown in FIG. 6 is photographed under the camera mode and the reproduced image representing the sheet ST is displayed on the LCD monitor 40. When the button 28gui is operated, the position, size, and GUI function of the GUI image M0 are registered in the 0th column of the register RGST, and the position, size, and GUI function of the GUI image M1 are registered in the first column of the register RGST. Is done. Similarly, the position, size, and GUI function of the GUI image M2 are registered in the second column of the register RGST, and the position, size, and GUI function of the GUI image M3 are registered in the third column of the register RGST, and the GUI image M4 The position, size, and GUI function are registered in the fourth column of the register RGST.

図2に戻って、タッチパネル38を形成するタッチセンサ42は、モニタ画面に対するタッチの有無とタッチ座標とを検知し、検知結果をCPU26に与える。また、通信I/F50には、遠隔操作対象のPC(Personal Computer)が接続される。   Returning to FIG. 2, the touch sensor 42 forming the touch panel 38 detects the presence / absence of touch on the monitor screen and the touch coordinates, and gives the detection result to the CPU 26. A remote operation target PC (Personal Computer) is connected to the communication I / F 50.

CPU26は、GUI探索処理が完了した時点でフラグFLGが“1”を示すとき、タッチセンサ42の出力に基づいてPCを制御するべく、以下の処理を実行する。なお、LCDモニタ40には、対象画像データを表す再生画像が引き続き表示される。   When the flag FLG indicates “1” when the GUI search process is completed, the CPU 26 executes the following process to control the PC based on the output of the touch sensor 42. Note that a reproduced image representing the target image data is continuously displayed on the LCD monitor 40.

まず、モニタ画面のタッチがタッチセンサ42によって検知されると、CPU26は、タッチ座標を検出し、検出されたタッチ座標とGUI画像との位置関係をレジスタRGSTを参照して判別する。検出されたタッチ座標がGUI画像上にあれば、CPU26は、タッチされたGUI画像に割り当てられたGUI機能をレジスタRGSTを参照して検出し、検出されたGUI機能に対応する命令を通信I/F50を通してPCに転送する。   First, when a touch on the monitor screen is detected by the touch sensor 42, the CPU 26 detects the touch coordinates, and determines the positional relationship between the detected touch coordinates and the GUI image with reference to the register RGST. If the detected touch coordinates are on the GUI image, the CPU 26 detects the GUI function assigned to the touched GUI image with reference to the register RGST, and sends a command corresponding to the detected GUI function to the communication I / O. Transfer to PC through F50.

したがって、GUI画像M0がタッチされたときは“F1キー”の操作に対応する命令がPCに転送され、GUI画像M1がタッチされたときは“F2キー”の操作に対応する命令がPCに転送される。また、GUI画像M2がタッチされたときは“App1”に相当するアプリケーションソフトを起動すべき旨の命令がPCに転送され、GUI画像M3がタッチされたときは“App2”に相当するアプリケーションソフトを起動すべき旨の命令がPCに転送される。さらに、GUI画像M4がタッチされたときは、カーソルの配置に関連する命令がPCに転送される。   Therefore, when the GUI image M0 is touched, a command corresponding to the operation of the “F1 key” is transferred to the PC, and when the GUI image M1 is touched, a command corresponding to the operation of the “F2 key” is transferred to the PC. Is done. When the GUI image M2 is touched, an instruction to start application software corresponding to “App1” is transferred to the PC, and when the GUI image M3 is touched, application software corresponding to “App2” is An instruction to start is transferred to the PC. Further, when the GUI image M4 is touched, a command related to the placement of the cursor is transferred to the PC.

CPU26は、図7に示す撮影タスク,図8〜図9に示す再生タスクおよび図10に示すPC操作タスクを含む複数のタスクをマルチタスクOSの制御の下で並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ48に記憶される。   The CPU 26 executes a plurality of tasks including a shooting task shown in FIG. 7, a reproduction task shown in FIGS. 8 to 9 and a PC operation task shown in FIG. 10 in parallel under the control of the multitask OS. Note that control programs corresponding to these tasks are stored in the flash memory 48.

図7を参照して、ステップS1では動画取り込みを開始し、ステップS3では動画表示を開始する。ステップS1の処理の結果、撮像面で捉えられたシーンを表す生画像データがイメージャ16から出力され、これに対応するYUV形式の画像データが後処理回路34から出力される。また、ステップS3の処理の結果、後処理回路34から出力された画像データに基づくスルー画像がLCDモニタ40に表示される。   Referring to FIG. 7, in step S1, moving image capturing is started, and in step S3, moving image display is started. As a result of the processing in step S1, raw image data representing a scene captured on the imaging surface is output from the imager 16, and corresponding YUV format image data is output from the post-processing circuit. Further, as a result of the processing in step S3, a through image based on the image data output from the post-processing circuit 34 is displayed on the LCD monitor 40.

ステップS5ではシャッタボタン28shが半押しされたか否かを判別し、判別結果がNOである限り、ステップS7で簡易AE処理を繰り返す。この結果、評価エリアEVAに属する画像の明るさが適正値を示すように、露光量が調整される。   In step S5, it is determined whether or not the shutter button 28sh is half-pressed. As long as the determination result is NO, the simple AE process is repeated in step S7. As a result, the exposure amount is adjusted so that the brightness of the image belonging to the evaluation area EVA shows an appropriate value.

ステップS5の判別結果がNOからYESに更新されると、ステップS9で厳格AE処理を実行し、ステップS11でAF処理を実行する。この結果、評価エリアEVAに属する画像の明るさおよび鮮鋭度が最適値を示すように、露光量およびフォーカスが調整される。   When the determination result in step S5 is updated from NO to YES, the strict AE process is executed in step S9, and the AF process is executed in step S11. As a result, the exposure amount and the focus are adjusted so that the brightness and sharpness of the image belonging to the evaluation area EVA show the optimum values.

ステップS13ではシャッタボタン28shが全押しされたか否かを判別し、ステップS15ではシャッタボタン28shの操作が解除されたか否かを判別する。ステップS15の判別結果がYESであればステップS5に戻り、ステップS13の判別結果がYESであればステップS17に進む。   In step S13, it is determined whether or not the shutter button 28sh has been fully pressed. In step S15, it is determined whether or not the operation of the shutter button 28sh has been released. If the determination result of step S15 is YES, it will return to step S5, and if the determination result of step S13 is YES, it will progress to step S17.

ステップS17では静止画取り込み処理を実行し、続くステップS19では記録処理の実行をメモリI/F44に命令する。シャッタボタン28shが全押しされた時点のシーンを表す1フレームの画像データは、静止画取り込み処理によって後処理画像エリア32bから記録画像エリア32cに退避される。メモリI/F44は、こうして退避された画像データをメモリ制御回路30を通して記録画像エリア32cから読み出し、読み出された画像データを収めた画像ファイルを記録媒体46に記録する。ステップS19の処理が完了すると、ステップS5に戻る。   In step S17, the still image capturing process is executed, and in the subsequent step S19, the memory I / F 44 is instructed to execute the recording process. One frame of image data representing a scene at the time when the shutter button 28 sh is fully pressed is saved from the post-processing image area 32 b to the recording image area 32 c by the still image capturing process. The memory I / F 44 reads the image data saved in this way from the recording image area 32 c through the memory control circuit 30, and records an image file containing the read image data on the recording medium 46. When the process of step S19 is completed, the process returns to step S5.

図8を参照して、ステップS21では記録媒体46に記録された最新の画像ファイルを指定し、ステップS23では指定された画像ファイルの再生をメモリI/F44に命令する。メモリI/F44は、指定画像ファイルに格納された画像データを読み出し、読み出された画像データをメモリ制御回路30を通して再生画像エリア32dに書き込む。   Referring to FIG. 8, in step S21, the latest image file recorded on the recording medium 46 is designated, and in step S23, the memory I / F 44 is instructed to reproduce the designated image file. The memory I / F 44 reads the image data stored in the designated image file, and writes the read image data into the reproduction image area 32d through the memory control circuit 30.

ステップS25では、再生画表示の開始をLCDドライバ36に命令する。LCDドライバ36は、再生画像エリア32dに格納された画像データをメモリ制御回路30を通して読み出し、読み出された画像データに基づいてLCDモニタ40を駆動する。この結果、再生画像がLCDモニタ40に表示される。   In step S25, the LCD driver 36 is instructed to start playback image display. The LCD driver 36 reads the image data stored in the reproduction image area 32d through the memory control circuit 30, and drives the LCD monitor 40 based on the read image data. As a result, the reproduced image is displayed on the LCD monitor 40.

ステップS27ではGUI設定操作が行われたか否かを判別し、ステップS29では画像更新操作が行われたか否かを判別する。ステップS29の判別結果がYESであれば、記録媒体46に記録された別の画像ファイルをステップS31で指定し、その後にステップS23に戻る。   In step S27, it is determined whether a GUI setting operation has been performed. In step S29, it is determined whether an image update operation has been performed. If the decision result in the step S29 is YES, another image file recorded on the recording medium 46 is designated in the step S31, and thereafter, the process returns to the step S23.

これに対して、ステップS27の判別結果がYESであれば、ステップS33でGUI画像探索処理を実行する。これによって、再生画像エリア32dに格納された画像データつまり対象画像データからGUI画像が探索される。フラグFLGは、少なくとも1つのGUI画像が探知されたときに“1”に設定され、GUI画像が1つも探知されなかったときに“0”に設定される。   On the other hand, if the decision result in the step S27 is YES, a GUI image search process is executed in a step S33. As a result, the GUI image is searched from the image data stored in the reproduction image area 32d, that is, the target image data. The flag FLG is set to “1” when at least one GUI image is detected, and is set to “0” when no GUI image is detected.

GUI画像探索処理が完了すると、フラグFLGが“1”を示すか否かをステップS35で判別する。判別結果がNOであればステップS27に戻り、判別結果がYESであればステップS37に進む。ステップS37ではPC操作タスクを起動し、その後に再生タスクを終了する。   When the GUI image search process is completed, it is determined in step S35 whether or not the flag FLG indicates “1”. If a determination result is NO, it will return to Step S27, and if a determination result is YES, it will progress to Step S37. In step S37, the PC operation task is activated, and then the reproduction task is terminated.

ステップS33のGUI画像探索処理は、図9に示すサブルーチンに従って実行される。まずステップS41で、フラグFLGおよび変数Kの各々を“0”に設定する。ステップS43では対象画像データから矩形枠を探索し、ステップS45では矩形枠が探知されたか否かを判別する。判別結果がYESであればステップS47に進み、探知された矩形枠の内側から文字を探索する。   The GUI image search process in step S33 is executed according to a subroutine shown in FIG. First, in step S41, each of the flag FLG and the variable K is set to “0”. In step S43, a rectangular frame is searched from the target image data. In step S45, it is determined whether or not the rectangular frame has been detected. If a determination result is YES, it will progress to step S47 and will search for a character from the inside of the detected rectangular frame.

ステップS49では、文字が探知されたか否かを判別する。判別結果がNOであれば、ステップS43に戻る。これに対して、判別結果がYESであれば、GUI画像が探知されたとみなし、ステップS51に進む。ステップS51では、探知されたGUI画像を定義する矩形枠の位置およびサイズをレジスタRGSTのK番目のカラムに登録する。ステップS53では、探知されたGUI画像上の文字に基づいてGUI機能を特定し、特定されたGUI機能をレジスタRGSTのK番目のカラムに登録する。ステップS53の処理が完了すると、ステップS55で変数Kをインクリメントし、その後にステップS43に戻る。   In step S49, it is determined whether or not a character has been detected. If a determination result is NO, it will return to Step S43. On the other hand, if the determination result is YES, it is considered that the GUI image has been detected, and the process proceeds to step S51. In step S51, the position and size of the rectangular frame defining the detected GUI image are registered in the Kth column of the register RGST. In step S53, the GUI function is specified based on the detected character on the GUI image, and the specified GUI function is registered in the Kth column of the register RGST. When the process of step S53 is completed, the variable K is incremented in step S55, and then the process returns to step S43.

なお、2回目以降のステップS43の処理では、探知済みの矩形枠が探索対象から除外される。したがって、たとえば3つのGUI画像が対象画像データに存在するときは、ステップS47〜S55の処理は3回繰り返される。   In the second and subsequent processing in step S43, the detected rectangular frame is excluded from the search target. Therefore, for example, when three GUI images are present in the target image data, the processes in steps S47 to S55 are repeated three times.

ステップS45の判別結果がNOであれば、変数Kが“1”以上であるか否かをステップS57で判別する。判別結果がNOであれば、GUI画像は対象画像データから1つも探知されなかったとみなし、そのまま上階層のルーチンに復帰する。これに対して、判別結果がYESであれば、少なくとも1つのGUI画像が対象画像データから探知されたとみなし、ステップS59でフラグFLGを“1”に更新してから上階層のルーチンに復帰する。   If the determination result in the step S45 is NO, it is determined whether or not the variable K is “1” or more in a step S57. If the determination result is NO, it is considered that no GUI image has been detected from the target image data, and the process returns to the upper layer routine. On the other hand, if the determination result is YES, it is considered that at least one GUI image has been detected from the target image data, the flag FLG is updated to “1” in step S59, and then the process returns to the upper hierarchy routine.

図10を参照して、ステップS61では、モニタ画面がタッチされたか否かをタッチセンサ42の出力に基づいて繰り返し判別する。判別結果がNOからYESに更新されると、ステップS63でタッチ座標を検出し、検出されたタッチ座標がGUI画像上にあるか否かをレジスタRGSTを参照して判別する。判別結果がNOであればステップS61に戻り、判別結果がYESであればGUI画像がタッチされたとみなしてステップS67に進む。   Referring to FIG. 10, in step S61, it is repeatedly determined based on the output of touch sensor 42 whether or not the monitor screen is touched. When the determination result is updated from NO to YES, the touch coordinates are detected in step S63, and it is determined with reference to the register RGST whether or not the detected touch coordinates are on the GUI image. If a determination result is NO, it will return to step S61, and if a determination result is YES, it will be considered that the GUI image was touched and it will progress to step S67.

ステップS67では、タッチされたGUI画像に割り当てられたGUI機能をレジスタRGSTを参照して検出する。ステップS69では、検出されたGUI機能に対応する命令を通信I/F50を通してPCに転送する。ステップS69の処理が完了すると、ステップS61に戻る。   In step S67, the GUI function assigned to the touched GUI image is detected with reference to the register RGST. In step S69, a command corresponding to the detected GUI function is transferred to the PC through the communication I / F 50. When the process of step S69 is completed, the process returns to step S61.

以上の説明から分かるように、イメージャ16は、撮像面で捉えられたシーンを表す生画像データを出力する。出力された生画像データは、前処理回路20および後処理回路34によってYUV形式の画像データに変換される。CPU26は、外部接続されたPCを操作するための1または2以上のGUI機能をそれぞれ表す1または2以上のGUI画像を変換後の画像データから探索し(S43~S49)、探索結果に基づいて1または2以上のGUI機能をタッチパネル38に割り当てる(S51~S53)。CPU26はまた、タッチパネル38上のタッチ位置に割り当てられたGUI機能を検出し(S61~S67)、検出されたGUI機能に対応する命令をPCに転送する(S69)。   As can be seen from the above description, the imager 16 outputs raw image data representing a scene captured on the imaging surface. The output raw image data is converted into YUV format image data by the pre-processing circuit 20 and the post-processing circuit 34. The CPU 26 searches for one or more GUI images respectively representing one or more GUI functions for operating an externally connected PC from the converted image data (S43 to S49), and based on the search result. One or more GUI functions are assigned to the touch panel 38 (S51 to S53). The CPU 26 also detects the GUI function assigned to the touch position on the touch panel 38 (S61 to S67), and transfers a command corresponding to the detected GUI function to the PC (S69).

1または2以上のGUI画像はPCを操作するための1または2以上のGUI機能をそれぞれ表すところ、1または2以上のGUI画像がイメージャ16によって捉えられると、対応する1または2以上のGUI機能がタッチパネル38に割り当てられる。タッチパネル38がタッチされると、タッチ位置に割り当てられたGUI機能に対応する命令がPCに転送される。これによって、PCの遠隔操作に関する操作性が向上する。   One or more GUI images represent one or more GUI functions for operating the PC, respectively. When one or more GUI images are captured by the imager 16, the corresponding one or more GUI functions are displayed. Is assigned to the touch panel 38. When the touch panel 38 is touched, a command corresponding to the GUI function assigned to the touch position is transferred to the PC. This improves the operability related to the remote operation of the PC.

なお、この実施例では、再生モードの下でのGUI設定操作に応答してGUI画像探索処理を実行し、少なくとも1つのGUI画像が探知されたときにPC操作タスクを起動するようにしている。しかし、カメラモードの下でのGUI設定操作に応答して静止画像データを取得し、取得された静止画像データに対してGUI画像探索処理を実行し、そして少なくとも1つのGUI画像が探知されたときにPC操作タスクを起動するようにしてもよい。これによって、動作モードをカメラモードから再生モードに切り換える手間を省くことができる。   In this embodiment, the GUI image search process is executed in response to the GUI setting operation under the reproduction mode, and the PC operation task is activated when at least one GUI image is detected. However, when still image data is acquired in response to the GUI setting operation under the camera mode, GUI image search processing is executed on the acquired still image data, and at least one GUI image is detected Alternatively, the PC operation task may be activated. Thereby, it is possible to save the trouble of switching the operation mode from the camera mode to the reproduction mode.

また、この実施例では、文字が内側に記述された矩形枠をGUI画像として想定しているが、これに代えて二次元バーコードのような特徴画像をGUI画像として想定するようにしてもよい。ただし、この場合は、検出されたGUI機能が割り当てられたPC操作画面をPC操作タスクの下でLCDモニタ40に表示する必要がある。   In this embodiment, a rectangular frame in which characters are described inside is assumed as a GUI image. However, a feature image such as a two-dimensional barcode may be assumed as a GUI image instead. . However, in this case, it is necessary to display the PC operation screen to which the detected GUI function is assigned on the LCD monitor 40 under the PC operation task.

さらに、この実施例では、マルチタスクOSおよびこれによって実行される複数のタスクに相当する制御プログラムは、フラッシュメモリ48に予め記憶される。しかし、一部の制御プログラムを内部制御プログラムとしてフラッシュメモリ48に当初から準備する一方、他の一部の制御プログラムを外部制御プログラムとして外部サーバから取得するようにしてもよい。この場合、上述の動作は、内部制御プログラムおよび外部制御プログラムの協働によって実現される。   Further, in this embodiment, a multitask OS and a control program corresponding to a plurality of tasks executed thereby are stored in the flash memory 48 in advance. However, a part of the control program may be prepared in the flash memory 48 from the beginning as an internal control program, while another part of the control program may be acquired from an external server as an external control program. In this case, the above-described operation is realized by cooperation of the internal control program and the external control program.

また、この実施例では、CPU26によって実行される処理を上述の要領で複数のタスクに区分するようにしている。しかし、各々のタスクをさらに複数の小タスクに区分してもよく、さらには区分された複数の小タスクの一部を他のタスクに統合するようにしてもよい。また、各々のタスクを複数の小タスクに区分する場合、その全部または一部を外部サーバから取得するようにしてもよい。   In this embodiment, the process executed by the CPU 26 is divided into a plurality of tasks as described above. However, each task may be further divided into a plurality of small tasks, and a part of the divided plurality of small tasks may be integrated with other tasks. Further, when each task is divided into a plurality of small tasks, all or part of the tasks may be acquired from an external server.

10 …ディジタルカメラ
16 …イメージャ
26 …CPU
28 …キー入力装置
32 …SDRAM
40 …LCDモニタ
42 …タッチセンサ
50 …通信I/F
10 ... Digital camera 16 ... Imager 26 ... CPU
28 ... Key input device 32 ... SDRAM
40 ... LCD monitor 42 ... Touch sensor 50 ... Communication I / F

Claims (8)

撮像面で捉えられたシーンを表す電子画像を出力する撮像手段、
外部装置を操作するための1または2以上のGUI機能をそれぞれ表す1または2以上の特徴画像を前記撮像手段の出力から探索する探索手段、
前記探索手段の探索結果に基づいて1または2以上のGUI機能をタッチパネルに割り当てる割り当て手段、
前記タッチパネル上のタッチ位置に割り当てられたGUI機能を前記割り当て手段の処理に関連して検出する検出手段、および
前記検出手段によって検出されたGUI機能に対応する命令を前記外部装置に転送する転送手段を備える、ユーザインタフェース装置。
Imaging means for outputting an electronic image representing a scene captured on the imaging surface;
Search means for searching for one or more feature images respectively representing one or more GUI functions for operating an external device from the output of the imaging means;
An assigning means for assigning one or more GUI functions to the touch panel based on a search result of the search means;
Detection means for detecting a GUI function assigned to a touch position on the touch panel in association with processing of the assignment means, and transfer means for transferring a command corresponding to the GUI function detected by the detection means to the external device A user interface device comprising:
前記割り当て手段は前記探索手段によって探知された特徴画像が表すGUI機能を前記探索手段によって探知された特徴画像の前記シーン上の位置に対応して前記タッチパネルに割り当てる、請求項1記載のユーザインタフェース装置。   2. The user interface device according to claim 1, wherein the assigning unit assigns a GUI function represented by the feature image detected by the searching unit to the touch panel corresponding to a position on the scene of the feature image detected by the searching unit. . 前記撮像手段から出力された電子画像を記録操作に応答して記録する記録手段、および
前記記録手段によって記録された電子画像を再生操作に応答して再生する再生手段をさらに備え、
前記探索手段は前記再生手段によって再生された電子画像に注目して処理を実行する、請求項1または2記載のユーザインタフェース装置。
A recording unit that records the electronic image output from the imaging unit in response to a recording operation; and a reproducing unit that reproduces the electronic image recorded by the recording unit in response to a reproducing operation;
The user interface device according to claim 1, wherein the search unit performs processing while paying attention to the electronic image reproduced by the reproduction unit.
前記再生手段は前記電子画像を前記タッチパネルに表示する表示手段を含み、
前記割り当て手段は前記表示手段の処理と並列して前記1または2以上のGUI機能を前記タッチパネルに割り当てる、請求項3記載のユーザインタフェース装置。
The reproduction means includes display means for displaying the electronic image on the touch panel,
The user interface device according to claim 3, wherein the assigning unit assigns the one or more GUI functions to the touch panel in parallel with the processing of the display unit.
撮像面で捉えられたシーンを表す電子画像を出力する撮像手段を備えるユーザインタフェース装置のプロセッサに、
外部装置を操作するための1または2以上のGUI機能をそれぞれ表す1または2以上の特徴画像を前記撮像手段の出力から探索する探索ステップ、
前記探索ステップの探索結果に基づいて1または2以上のGUI機能をタッチパネルに割り当てる割り当てステップ、
前記タッチパネル上のタッチ位置に割り当てられたGUI機能を前記割り当てステップの処理に関連して検出する検出ステップ、および
前記検出ステップによって検出されたGUI機能に対応する命令を前記外部装置に転送する転送ステップを実行させるための、ユーザインタフェース制御プログラム。
In a processor of a user interface device including an imaging unit that outputs an electronic image representing a scene captured on an imaging surface,
A search step of searching for one or more feature images respectively representing one or more GUI functions for operating an external device from the output of the imaging means;
Assigning one or more GUI functions to the touch panel based on the search result of the search step;
A detection step of detecting a GUI function assigned to a touch position on the touch panel in relation to the processing of the assignment step; and a transfer step of transferring a command corresponding to the GUI function detected by the detection step to the external device A user interface control program for executing
撮像面で捉えられたシーンを表す電子画像を出力する撮像手段を備えるユーザインタフェース装置によって実行されるユーザインタフェース制御方法であって、
外部装置を操作するための1または2以上のGUI機能をそれぞれ表す1または2以上の特徴画像を前記撮像手段の出力から探索する探索ステップ、
前記探索ステップの探索結果に基づいて1または2以上のGUI機能をタッチパネルに割り当てる割り当てステップ、
前記タッチパネル上のタッチ位置に割り当てられたGUI機能を前記割り当てステップの処理に関連して検出する検出ステップ、および
前記検出ステップによって検出されたGUI機能に対応する命令を前記外部装置に転送する転送ステップを備える、ユーザインタフェース制御方法。
A user interface control method executed by a user interface device including an imaging unit that outputs an electronic image representing a scene captured on an imaging surface,
A search step of searching for one or more feature images respectively representing one or more GUI functions for operating an external device from the output of the imaging means;
Assigning one or more GUI functions to the touch panel based on the search result of the search step;
A detection step of detecting a GUI function assigned to a touch position on the touch panel in relation to the processing of the assignment step; and a transfer step of transferring a command corresponding to the GUI function detected by the detection step to the external device A user interface control method comprising:
撮像面で捉えられたシーンを表す電子画像を出力する撮像手段、および
メモリに保存された内部制御プログラムに従う処理を実行するプロセッサを備えるユーザインタフェース装置に供給される外部制御プログラムであって、
外部装置を操作するための1または2以上のGUI機能をそれぞれ表す1または2以上の特徴画像を前記撮像手段の出力から探索する探索ステップ、
前記探索ステップの探索結果に基づいて1または2以上のGUI機能をタッチパネルに割り当てる割り当てステップ、
前記タッチパネル上のタッチ位置に割り当てられたGUI機能を前記割り当てステップの処理に関連して検出する検出ステップ、および
前記検出ステップによって検出されたGUI機能に対応する命令を前記外部装置に転送する転送ステップを前記内部制御プログラムと協働して前記プロセッサに実行させるための、外部制御プログラム。
An external control program supplied to a user interface device comprising an imaging means for outputting an electronic image representing a scene captured on an imaging surface, and a processor for executing processing according to an internal control program stored in a memory,
A search step of searching for one or more feature images respectively representing one or more GUI functions for operating an external device from the output of the imaging means;
Assigning one or more GUI functions to the touch panel based on the search result of the search step;
A detection step of detecting a GUI function assigned to a touch position on the touch panel in relation to the processing of the assignment step; and a transfer step of transferring a command corresponding to the GUI function detected by the detection step to the external device An external control program for causing the processor to execute in cooperation with the internal control program.
撮像面で捉えられたシーンを表す電子画像を出力する撮像手段、
外部制御プログラムを取り込む取り込み手段、および
前記取り込み手段によって取り込まれた外部制御プログラムとメモリに保存された内部制御プログラムとに従う処理を実行するプロセッサを備えるユーザインタフェース装置であって、
前記外部制御プログラムは、
外部装置を操作するための1または2以上のGUI機能をそれぞれ表す1または2以上の特徴画像を前記撮像手段の出力から探索する探索ステップ、
前記探索ステップの探索結果に基づいて1または2以上のGUI機能をタッチパネルに割り当てる割り当てステップ、
前記タッチパネル上のタッチ位置に割り当てられたGUI機能を前記割り当てステップの処理に関連して検出する検出ステップ、および
前記検出ステップによって検出されたGUI機能に対応する命令を前記外部装置に転送する転送ステップを前記内部制御プログラムと協働して実行するプログラムに相当する、ユーザインタフェース装置。
Imaging means for outputting an electronic image representing a scene captured on the imaging surface;
A user interface device comprising: a capturing unit that captures an external control program; and a processor that executes processing according to the external control program captured by the capturing unit and the internal control program stored in a memory,
The external control program is
A search step of searching for one or more feature images respectively representing one or more GUI functions for operating an external device from the output of the imaging means;
Assigning one or more GUI functions to the touch panel based on the search result of the search step;
A detection step of detecting a GUI function assigned to a touch position on the touch panel in relation to the processing of the assignment step; and a transfer step of transferring a command corresponding to the GUI function detected by the detection step to the external device A user interface device corresponding to a program that executes in cooperation with the internal control program.
JP2013027638A 2013-02-15 2013-02-15 User interface device Pending JP2014157463A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013027638A JP2014157463A (en) 2013-02-15 2013-02-15 User interface device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013027638A JP2014157463A (en) 2013-02-15 2013-02-15 User interface device

Publications (1)

Publication Number Publication Date
JP2014157463A true JP2014157463A (en) 2014-08-28

Family

ID=51578308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013027638A Pending JP2014157463A (en) 2013-02-15 2013-02-15 User interface device

Country Status (1)

Country Link
JP (1) JP2014157463A (en)

Similar Documents

Publication Publication Date Title
US10469737B2 (en) Display control device and display control method
JP5652652B2 (en) Display control apparatus and method
JP4413235B2 (en) Electronic camera
US20120176398A1 (en) Display control apparatus, display control method, and computer program product
JP5725049B2 (en) Imaging apparatus, imaging method, and program
US20130162576A1 (en) User interface apparatus
KR20130111866A (en) Digital image processing apparatus and controlling method thereof
JP6010303B2 (en) Image playback device
JP2014103547A (en) Electronic camera
JP2014107775A (en) Electronic camera
JP2014050081A (en) Electronic camera
JP2014157463A (en) User interface device
JP5623247B2 (en) Imaging apparatus and control method thereof
KR101946574B1 (en) Apparatus and method for reproducing image and computer-readable storage medium
JP2014175716A (en) Image processing device
JP5926062B2 (en) User interface device
JP5188633B2 (en) Electronics
JP5135985B2 (en) Imaging device, processing execution method and program for imaging device
WO2013099388A1 (en) Image transferring device
JP6351410B2 (en) Image processing apparatus, imaging apparatus, control method for image processing apparatus, control program for image processing apparatus, and storage medium
JP6611478B2 (en) Imaging apparatus, recording control method, and program
GB2617673A (en) Electronic device, method for controlling electronic device, and program
JP2012182577A (en) Electronic camera
JP6185221B2 (en) Content processing device
JP2014146993A (en) Electronic camera