JP2012230498A - Electronic device, icon display method, and program - Google Patents

Electronic device, icon display method, and program Download PDF

Info

Publication number
JP2012230498A
JP2012230498A JP2011097519A JP2011097519A JP2012230498A JP 2012230498 A JP2012230498 A JP 2012230498A JP 2011097519 A JP2011097519 A JP 2011097519A JP 2011097519 A JP2011097519 A JP 2011097519A JP 2012230498 A JP2012230498 A JP 2012230498A
Authority
JP
Japan
Prior art keywords
icon
display
area
display screen
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011097519A
Other languages
Japanese (ja)
Other versions
JP5853406B2 (en
Inventor
Daisuke Nakai
大介 中井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011097519A priority Critical patent/JP5853406B2/en
Publication of JP2012230498A publication Critical patent/JP2012230498A/en
Application granted granted Critical
Publication of JP5853406B2 publication Critical patent/JP5853406B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve operability in specifying an object on a display screen using a touch panel.SOLUTION: When a display screen 3a serving as a touch panel displays an image including objects G1-G3 to be selected, the display screen 3a displays icons I1 and I2 used for specification of the objects G1 and G2 and having a one-to-one relation with the objects G1 and G2, respectively. The display positions of the icons I1 and I2 are controlled so that they are different from those of the corresponding objects G1 and G2 in an icon arrangement area B of the display screen 3a. The icon arrangement area B is set so as to be easily touched by a user, thereby the objects G1 and G2 displayed at positions difficult to be touched can be specified by touching the icons I1 and I2 at positions easy to be touched.

Description

本発明は、タッチパネルとして機能する表示画面を有する表示装置を備えた電子機器に関するものである。   The present invention relates to an electronic apparatus including a display device having a display screen that functions as a touch panel.

近年、画像等を表示する液晶モニタ等の表示装置を備えた電子機器においては、表示装置の表示画面にタッチパネルとしての機能を付加することにより、電子機器に対する種々の操作をユーザが直感的に行えるようにしたものが多い。   In recent years, in an electronic device having a display device such as a liquid crystal monitor that displays an image or the like, a user can intuitively perform various operations on the electronic device by adding a function as a touch panel to the display screen of the display device. There are many things like this.

例えば下記特許文献1には、顔検出機能を有するデジタルカメラにおいて、ライブビュー画像(スルー画像ともいう。)をモニタに表示している間、顔検出機能により検出した複数人物の顔の中から笑顔を検出すべき顔を、ユーザが表示画面をタッチ操作することにより選択可能とする構成が記載されている。   For example, in Patent Document 1 below, a digital camera having a face detection function displays a smile from a plurality of faces detected by the face detection function while a live view image (also referred to as a through image) is displayed on a monitor. Describes a configuration in which a user can select a face to be detected by touching the display screen.

特開2010−16878号公報(段落[0027])。Unexamined-Japanese-Patent No. 2010-16878 (paragraph [0027]).

ところで、デジタルカメラによる撮影時においては、ユーザがカメラ本体を両手でホールドしながらフレーミングを行うのが一般的である。そのため、上記のように笑顔を検出すべき顔の選択を表示画面のタッチ操作によって行う場合には以下の問題があった。例えばユーザの選択したい顔が、表示画面の左辺や右辺に沿った領域以外の領域に位置する場合、ユーザがカメラ本体を両手でホールドし画角を保持したままの状態では、目的とする顔の選択操作が煩雑であるとともに、それを迅速に行うことが難しいという問題があった。   By the way, when photographing with a digital camera, it is common for a user to perform framing while holding the camera body with both hands. For this reason, there has been the following problem when selecting a face for which a smile should be detected as described above by a touch operation on the display screen. For example, if the face that the user wants to select is located in an area other than the area along the left or right side of the display screen, the user can hold the camera body with both hands and keep the angle of view. There is a problem that the selection operation is complicated and it is difficult to perform it quickly.

また、上記の問題は、表示画面に表示されている選択対象が人物の顔である場合に限らず、他のオブジェクト、すなわち画像内で特徴的な色、位置、面積を持つ特定の領域(画像に重畳されているアイコン等のマークを含む)である場合についても同様である。   The above problem is not limited to the case where the selection target displayed on the display screen is a person's face, but other objects, that is, specific regions (images having characteristic colors, positions, and areas in the image). The same applies to the case of a mark including an icon or the like superimposed on the icon.

さらに、上記の問題は、表示画面が大きいほど顕著となる。すなわち表示画面が大きい場合には、例えばユーザが一時的に一方の手で装置本体をホールドした状態のまま、他方の手で表示画面へのタッチ操作を行うことを余儀なくされるためである。   Furthermore, the above problem becomes more prominent as the display screen is larger. That is, when the display screen is large, for example, the user is forced to touch the display screen with the other hand while temporarily holding the apparatus main body with one hand.

本発明は、かかる従来の課題に鑑みてなされたものであり、タッチパネルを用いて表示画面内のオブジェクトを指示する際の作業性を向上させることを目的とする。   The present invention has been made in view of such a conventional problem, and an object thereof is to improve workability when an object in a display screen is designated using a touch panel.

前記課題を解決するため、本発明に係る電子機器においては、タッチパネルとして機能する表示画面を有する表示手段と、前記表示手段に、前記表示画面に表示されるオブジェクトの指示に使用される当該オブジェクトと一対一の関係を有するアイコンを表示させるとともに、当該アイコンの表示位置を、予め決められているアイコン配置領域内における、対応するオブジェクトとは異なる位置に制御する表示制御手段とを備えたことを特徴とする。   In order to solve the above-described problem, in the electronic device according to the present invention, a display unit having a display screen functioning as a touch panel, and the object used for indicating an object displayed on the display screen on the display unit, Display control means for displaying an icon having a one-to-one relationship and controlling the display position of the icon to a position different from the corresponding object in a predetermined icon arrangement region And

本発明によれば、タッチパネルを用いて表示画面内のオブジェクトを指示する際の作業性を向上させることが可能となる。   According to the present invention, it is possible to improve workability when an object in a display screen is designated using a touch panel.

第1の実施形態におけるデジタルカメラの背面図である。It is a rear view of the digital camera in a 1st embodiment. デジタルカメラのブロック図である。It is a block diagram of a digital camera. 撮影モードでの処理内容を示すフローチャートである。It is a flowchart which shows the processing content in imaging | photography mode. ライブビュー画像の表示中における表示画面を例示する図である。It is a figure which illustrates the display screen in the middle of the display of a live view image. ライブビュー画像の表示中における表示画面の操作状態を例示する図である。It is a figure which illustrates the operation state of the display screen during the display of a live view image. 第2の実施形態における撮影モードでの処理内容を示すフローチャートである。It is a flowchart which shows the processing content in imaging | photography mode in 2nd Embodiment. (a)は、表示画面におけるアイコン利用領域とアイコン配置領域の設定例を示す図、(b)は、ライブビュー画像の表示中における表示画面を例示する図である。(A) is a figure which shows the example of a setting of the icon utilization area | region and icon arrangement | positioning area | region in a display screen, (b) is a figure which illustrates the display screen during the display of a live view image. 選択操作アイコンが表示された表示画面を例示する図である。It is a figure which illustrates the display screen on which the selection operation icon was displayed. 第3の実施形態におけるナビゲーション装置の外観図である。It is an external view of the navigation apparatus in 3rd Embodiment. ナビゲーション装置のブロック図である。It is a block diagram of a navigation apparatus. ナビゲーション処理に先立つ目的地の設定に関する処理内容を示すフローチャートである。It is a flowchart which shows the processing content regarding the setting of the destination prior to a navigation process. 周辺地図の表示中における表示画面を例示する図である。It is a figure which illustrates the display screen in the display of a surrounding map.

(実施形態1)
以下、本発明の第1の実施形態について説明する。図1は、本発明を適用したデジタルカメラ1を示す背面図である。図示したように、デジタルカメラ1の本体2(以下、カメラ本体ともいう。)の背面には、液晶モニタ3と、撮影キー4及び、再生キー5、コントロールキー6、SETキー7、MENUキー8、BSキー9の複数の操作キーとが配置されている。また、本体2の上面にはシャッタキー10が配置されている。なお、図示しないが本体2の上面には電源キーが配置されており、本体2の底面には、撮影した画像を記録するメモリカードが着脱自在に装着されている。
(Embodiment 1)
Hereinafter, a first embodiment of the present invention will be described. FIG. 1 is a rear view showing a digital camera 1 to which the present invention is applied. As shown in the figure, a liquid crystal monitor 3, a shooting key 4, a reproduction key 5, a control key 6, a SET key 7, and a MENU key 8 are provided on the back of a main body 2 (hereinafter also referred to as a camera main body) of the digital camera 1. A plurality of operation keys of the BS key 9 are arranged. A shutter key 10 is disposed on the upper surface of the main body 2. Although not shown, a power key is disposed on the top surface of the main body 2, and a memory card for recording a photographed image is detachably mounted on the bottom surface of the main body 2.

液晶モニタ3の表示画面3aにはタッチパネルとしての機能が確保されている。なお、撮影キー4と再生キー5は、デジタルカメラ1の基本モードである撮影モードと再生モードとの切り替えに使用される。MENUキー8は、デジタルカメラ1の各種設定を行うための種々のメニュー画面を液晶モニタ3に表示させるために使用される。コントロールキー6は、例えばメニュー画面での設定項目や設定内容の変更に使用され、SETキー7は、設定項目や設定内容の確定操作に使用される。   The display screen 3a of the liquid crystal monitor 3 has a function as a touch panel. The shooting key 4 and the playback key 5 are used for switching between a shooting mode and a playback mode, which are basic modes of the digital camera 1. The MENU key 8 is used to display various menu screens for performing various settings of the digital camera 1 on the liquid crystal monitor 3. The control key 6 is used, for example, to change setting items and setting contents on the menu screen, and the SET key 7 is used to confirm the setting items and setting contents.

図2は、上記デジタルカメラ1の主として電気的構成の概略を示すブロック図である。デジタルカメラ1はAE(Auto Exposure)、及びAF(Auto Focus)、AWB(Auto white balance)、被写体検出の各機能を備えており、主として以下の各部から構成されている。   FIG. 2 is a block diagram showing an outline of an electrical configuration mainly of the digital camera 1. The digital camera 1 has functions of AE (Auto Exposure), AF (Auto Focus), AWB (Auto white balance), and subject detection, and mainly includes the following parts.

すなわちデジタルカメラ1は、レンズブロック12と撮像素子13とを有している。レンズブロック12は、フォーカスレンズを含むレンズ群と、絞りと、レンズ群を駆動するレンズモータ、絞りを開閉駆動するアクチュエータを含み、レンズモータやアクチュエータが光学系駆動部14によって駆動されることにより、焦点位置や撮像素子13の受光量が調整される。   That is, the digital camera 1 has a lens block 12 and an image sensor 13. The lens block 12 includes a lens group including a focus lens, a diaphragm, a lens motor that drives the lens group, and an actuator that opens and closes the diaphragm. When the lens motor and the actuator are driven by the optical system driving unit 14, The focal position and the amount of light received by the image sensor 13 are adjusted.

撮像素子13は、駆動回路15によって駆動され、レンズブロック12において集光された被写体の光学像を光電変換し、RGB成分からなる画像信号としてAFE16(Analog Front End)へ出力するCCD(Charge Coupled Device)やCMOS(Complementary Meta1 0xide Semiconductor)等の固体撮像素子である。   The image pickup device 13 is driven by a drive circuit 15 and photoelectrically converts an optical image of a subject collected by the lens block 12 and outputs it to an AFE 16 (Analog Front End) as an image signal composed of RGB components. ) And CMOS (Complementary Meta10xide Semiconductor).

AFE16は、CDS(Correlated Double Sampling)回路や、PGA(Programmable Gain Amp)、ADC(Analog-to-Digital Converter)等によって構成される。AFE16は、撮像素子13が出力した撮像信号に所定のアナログ処理を行い、アナログ処理後の撮像信号をデジタル信号に変換した後、変換後の画像データを画像処理部17へ出力する。   The AFE 16 includes a CDS (Correlated Double Sampling) circuit, a PGA (Programmable Gain Amp), an ADC (Analog-to-Digital Converter), and the like. The AFE 16 performs predetermined analog processing on the image signal output from the image sensor 13, converts the image signal after analog processing into a digital signal, and then outputs the converted image data to the image processing unit 17.

画像処理部17は、AFE16から入力した画素データを一時記憶するバッファ用のメモリ、及び一時記憶した画素データに対して種々の画像処理を行う画像処理回路等から構成される。画像処理部17が行う画像処理は、ガンマ補正や、ホワイトバランス調整、画素毎のR,G,Bの色成分データの生成、生成したRGBデータからYUVデータを生成するYUV変換等である。   The image processing unit 17 includes a buffer memory that temporarily stores pixel data input from the AFE 16, an image processing circuit that performs various image processing on the temporarily stored pixel data, and the like. Image processing performed by the image processing unit 17 includes gamma correction, white balance adjustment, generation of R, G, and B color component data for each pixel, YUV conversion that generates YUV data from the generated RGB data, and the like.

また、画像処理部17は、生成した1フレーム分のYUVデータを、撮影待機状態にある間にはCPU(Central Processing Unit)18へ供給し、かつ撮影時にはCODEC(Coder & Decoder:符号器/復号器)19へ供給する。   Further, the image processing unit 17 supplies the generated YUV data for one frame to a CPU (Central Processing Unit) 18 while in a shooting standby state, and at the time of shooting, a CODEC (Coder & Decoder). Device) 19.

撮影待機状態においてCPU18へ供給されたYUVデータは液晶モニタ3へ供給され、液晶モニタ3においてライブビュー画像として表示される。液晶モニタ3は、バックライト付きのカラー液晶表示パネル21と、カラー液晶表示パネル21の表面に一体的に設けられた静電容量型等のタッチセンサ22と、カラー液晶表示パネル21及びタッチセンサ22の駆動回路(図示せず)とから構成される。   The YUV data supplied to the CPU 18 in the shooting standby state is supplied to the liquid crystal monitor 3 and displayed on the liquid crystal monitor 3 as a live view image. The liquid crystal monitor 3 includes a color liquid crystal display panel 21 with a backlight, a capacitive type touch sensor 22 integrally provided on the surface of the color liquid crystal display panel 21, the color liquid crystal display panel 21, and the touch sensor 22. Drive circuit (not shown).

CODEC19は、撮影時に画像処理部17から供給された画像データ(YUVデータ)をJPEG方式による符号化し、また、符号化されている任意の画像データを復号する。撮影時にCODEC19においてJPEG方式で圧縮符号化された画像データは、CPU18によって日付情報や画像サイズ等の種々の撮影情報を付加された後、静止画データ(静止画ファイル)として画像メモリ23に記録される。   The CODEC 19 encodes the image data (YUV data) supplied from the image processing unit 17 at the time of shooting by the JPEG method, and decodes any encoded image data. The image data compression-encoded by the CODEC 19 in the CODEC 19 at the time of shooting is recorded in the image memory 23 as still image data (still image file) after adding various shooting information such as date information and image size by the CPU 18. The

画像メモリ23は、デジタルカメラ1の本体2に内蔵されたメモリカードである。画像メモリ23に記録された静止画データは、再生時においてCPU18により適宜読み出され、CODEC19において復号された後、液晶モニタ3へ送られて静止画像として再生される。   The image memory 23 is a memory card built in the main body 2 of the digital camera 1. Still image data recorded in the image memory 23 is appropriately read out by the CPU 18 at the time of reproduction, decoded by the CODEC 19, and then sent to the liquid crystal monitor 3 to be reproduced as a still image.

また、CPU18には、操作部24、RAM(Random Access memory)25、プログラムメモリ26が接続されている。RAM25はCPU18のワーキングメモリであり、操作部24は、撮影キー4や再生キー5、シャッタキー10等の複数の操作キーにより構成される。   Further, an operation unit 24, a RAM (Random Access memory) 25, and a program memory 26 are connected to the CPU 18. The RAM 25 is a working memory of the CPU 18, and the operation unit 24 includes a plurality of operation keys such as the photographing key 4, the reproduction key 5, and the shutter key 10.

プログラムメモリ26は、例えば記憶データが書き換え可能なEEPROM(Electric Erasable Programmable Read Only Memory)等である。プログラムメモリ26には、CPU18にデジタルカメラ1の全体の動作を制御させるための制御プログラムや各種のデータが記憶されている。   The program memory 26 is, for example, an EEPROM (Electric Erasable Programmable Read Only Memory) in which stored data can be rewritten. The program memory 26 stores a control program for causing the CPU 18 to control the entire operation of the digital camera 1 and various data.

プログラムメモリ26に記憶されている制御プログラムには、CPU18にAE制御、AF制御、AWB制御、被写体検出処理等を行わせるためのプログラムが含まれる。また、プログラムメモリ26に記憶されている各種のデータには、撮影時の適正な露出値に対応する絞り値とシャッタースピードとの組み合わせを示すプログラム線図や、被写体検出に必要とするデータ等が含まれる。   The control program stored in the program memory 26 includes a program for causing the CPU 18 to perform AE control, AF control, AWB control, subject detection processing, and the like. The various types of data stored in the program memory 26 include a program diagram showing a combination of an aperture value and a shutter speed corresponding to an appropriate exposure value at the time of shooting, data necessary for subject detection, and the like. included.

CPU18による被写体検出処理は、画像処理部17により生成された1フレーム分の画像データ(以下、撮像画像という)を対象として、撮影時に主要被写体として選択可能とする任意のオブジェクトを、例えば二値化や輪郭抽出等の公知の画像認識技術によって1又は複数検出する処理である。   The subject detection process by the CPU 18 binarizes, for example, an arbitrary object that can be selected as a main subject at the time of shooting with respect to one frame of image data (hereinafter referred to as a captured image) generated by the image processing unit 17. Or a process of detecting one or more by a known image recognition technique such as contour extraction.

次に、以上の構成からなるデジタルカメラ1の本発明に係る動作について説明する。デジタルカメラ1には、撮影モードで使用可能な機能として被写体検出機能が設けられており、被写体検出機能の使用が設定されているときの撮影モードにおいてデジタルカメラ1は以下のように動作する。   Next, an operation according to the present invention of the digital camera 1 having the above configuration will be described. The digital camera 1 is provided with a subject detection function as a function that can be used in the shooting mode. In the shooting mode when the use of the subject detection function is set, the digital camera 1 operates as follows.

まず、概略を説明すると、デジタルカメラ1は、撮影モードで液晶モニタ3の表示画面3aにライブビュー画像を表示している間、主要被写体を決める際の選択候補となる被写体を自動的に検出し、図4(a)に示したように、検出した被写体G1,G2,G3をフォーカス枠F1,F2,F3の表示によってユーザに知らせる。   First, the outline will be described. The digital camera 1 automatically detects a subject as a selection candidate when determining a main subject while displaying a live view image on the display screen 3a of the liquid crystal monitor 3 in a photographing mode. As shown in FIG. 4A, the detected subjects G1, G2, and G3 are notified to the user by displaying the focus frames F1, F2, and F3.

その際、図4(b)に示したように、検出した被写体のいずれかが表示画面3aのアイコン利用領域Aに存在する場合、デジタルカメラ1は、アイコン利用領域A内に存在する被写体G1,G2の選択操作(指示)に使用される選択操作用アイコンI1,I2を表示画面3aのアイコン配置領域Bに表示する。   At this time, as shown in FIG. 4B, when any of the detected subjects exists in the icon usage area A of the display screen 3a, the digital camera 1 detects the subjects G1, which exist in the icon usage area A. The selection operation icons I1 and I2 used for the selection operation (instruction) of G2 are displayed in the icon arrangement area B of the display screen 3a.

ここで、アイコン利用領域Aとアイコン配置領域Bとは予め決められている領域であり、本実施形態では表示画面3aの全域を破線で示した位置(表示画面3aの右辺に寄った位置)で左右に区画することにより形成される領域である。なお、図4(a)及び図4(b)における破線は、アイコン利用領域Aとアイコン配置領域Bとの境界を便宜的に示したものであり、液晶モニタ3には表示されない。   Here, the icon use area A and the icon arrangement area B are predetermined areas. In the present embodiment, the entire area of the display screen 3a is indicated by a broken line (position close to the right side of the display screen 3a). It is an area formed by dividing into left and right. Note that the broken lines in FIGS. 4A and 4B indicate the boundary between the icon use area A and the icon arrangement area B for convenience, and are not displayed on the liquid crystal monitor 3.

そして、デジタルカメラ1は、ユーザに、主要被写体として扱うべき被写体を表示画面3aのタッチ操作によって選択させる。その際、アイコン利用領域Aの被写体G1,G2については、対応する選択操作用アイコンI1,I2のタッチ操作によっても、それらの選択を可能とする。その後、デジタルカメラ1は、ユーザによる撮影操作(シャッタキー10の押下)に応じ、ユーザにより選択されたいずれかの被写体を主要被写体とした撮影動作を行う。   Then, the digital camera 1 causes the user to select a subject to be handled as a main subject by a touch operation on the display screen 3a. At this time, the subjects G1 and G2 in the icon use area A can be selected by touching the corresponding selection operation icons I1 and I2. Thereafter, the digital camera 1 performs a shooting operation with any subject selected by the user as a main subject in response to a shooting operation (pressing the shutter key 10) by the user.

以下、被写体検出機能の使用が設定されているときの撮影モードでのデジタルカメラ1の具体的な動作について説明する。図3は、被写体検出機能の使用が設定されているときの撮影モードにおいてCPU18が実行する処理の内容を示したフローチャートである。   Hereinafter, a specific operation of the digital camera 1 in the shooting mode when the use of the subject detection function is set will be described. FIG. 3 is a flowchart showing the contents of processing executed by the CPU 18 in the shooting mode when the use of the subject detection function is set.

CPU18は、撮影モードでの動作を開始すると、直ちに所定のフレームレート(例えば30fps)に応じたタイミングで撮像素子13を駆動する撮像処理を行い(ステップSA1)、撮像処理に伴い画像処理部17により生成されたYUVデータに基づくライブビュー画像を液晶モニタ3に表示させる(ステップSA2)。   When the CPU 18 starts the operation in the shooting mode, the CPU 18 immediately performs an imaging process for driving the imaging element 13 at a timing according to a predetermined frame rate (for example, 30 fps) (step SA1), and the image processing unit 17 performs the imaging process. A live view image based on the generated YUV data is displayed on the liquid crystal monitor 3 (step SA2).

引き続き、CPU18は、画像処理部17により生成されたYUVデータ(以下、撮像画像という。)を処理対象とした被写体検出処理を行い、撮像画像から主要被写体の選択候補となる被写体を1又は複数検出する(ステップSA3)。   Subsequently, the CPU 18 performs subject detection processing using YUV data (hereinafter referred to as a captured image) generated by the image processing unit 17 as a processing target, and detects one or a plurality of subjects as selection candidates for the main subject from the captured image. (Step SA3).

被写体検出処理に際してCPU18は、撮像画像内における大きさが予め決められている大きさ以上の被写体を検出する。ここで、撮像画像内における大きさが予め決められている大きさ以上の被写体とは、例えば個々の被写体として認識し得る特定領域の面積と、その特定領域を囲む最小矩形の縦方向及び横方向の長さとの各々が、予め決められているそれぞれの閾値を超える大きさの被写体である。   In subject detection processing, the CPU 18 detects a subject whose size in the captured image is greater than or equal to a predetermined size. Here, the subject whose size in the captured image is larger than a predetermined size is, for example, the area of a specific region that can be recognized as an individual subject, and the vertical and horizontal directions of the smallest rectangle that surrounds the specific region. Each of the subjects is a subject whose size exceeds a predetermined threshold value.

次に、CPU18は、検出した被写体をユーザに対して明示する前述したフォーカス枠をライブビュー画像に重ねて液晶モニタ3に表示させる(ステップSA4)。なお、フォーカス枠の表示位置は、検出した被写体が明示できる位置である。また、フォーカス枠の具体的な表示方法はOSD(On Screen Display)表示等である。   Next, the CPU 18 causes the liquid crystal monitor 3 to display the above-described focus frame that clearly indicates the detected subject to the user on the live view image (step SA4). Note that the display position of the focus frame is a position where the detected subject can be clearly indicated. A specific method for displaying the focus frame is OSD (On Screen Display) display or the like.

図4(a)は、ステップSA4の処理直後における液晶モニタ3の表示画面3aの状態を示した図である。すなわち図4(a)は、ステップSA3の処理において主要被写体の選択候補として3つの被写体G1,G2,G3が検出され、各被写体G1,G2,G3を明示する3つのフォーカス枠F1,F2,F3がライブビュー画像に重ねて表示された場合の状態を示した図である。   FIG. 4A is a diagram showing the state of the display screen 3a of the liquid crystal monitor 3 immediately after the process of step SA4. That is, in FIG. 4A, three subjects G1, G2, and G3 are detected as main subject selection candidates in the process of step SA3, and three focus frames F1, F2, and F3 that clearly indicate the subjects G1, G2, and G3. It is the figure which showed the state when is superimposed and displayed on the live view image.

次に、CPU18は、液晶モニタ3の表示画面3aの前述したアイコン利用領域Aに、ステップSA3の処理で検出した選択候補の被写体のいずれかが存在するか否かを確認する(ステップSA5)。ステップSA5の処理においてCPU18は、選択候補として検出した被写体のうちに、その全ての領域がアイコン利用領域Aに含まれる被写体が存在するとき、アイコン利用領域Aに選択候補の被写体のいずれかが存在するものと判断する。   Next, the CPU 18 checks whether or not any of the selection candidate subjects detected in the process of step SA3 exists in the icon use area A of the display screen 3a of the liquid crystal monitor 3 (step SA5). In the processing of step SA5, when there are subjects whose entire area is included in the icon usage region A among the subjects detected as selection candidates, the CPU 18 has any of the selection candidate subjects in the icon usage region A. Judging what to do.

選択候補の被写体がアイコン利用領域に存在しない場合(ステップSA5:NO)、CPU18は、表示画面3aに対するユーザのタッチ操作の有無、及びタッチ位置の演算を行い、ユーザによって、主要被写体の選択候補として検出した1又は複数の被写体のいずれかに対してタッチ操作が行われたか否かを確認する(ステップSA6)。   When the selection candidate subject does not exist in the icon use area (step SA5: NO), the CPU 18 calculates the presence / absence of the user's touch operation on the display screen 3a and the touch position, and the user selects the main subject as a selection candidate for the main subject. It is confirmed whether or not a touch operation has been performed on one of the detected one or a plurality of subjects (step SA6).

被写体のタッチ操作が確認できなかった場合(ステップSA6:NO)、CPU18は直ちにステップSA1の処理に戻り、前述した処理を繰り返す。   When the touch operation on the subject cannot be confirmed (step SA6: NO), the CPU 18 immediately returns to the process of step SA1 and repeats the above-described process.

また、選択候補のいずれかの被写体のタッチ操作が確認できた場合(ステップSA6:YES)、CPU18は、タッチ操作があった被写体、つまりユーザによって選択された被写体を主要被写体として設定する(ステップSA7)。   If the touch operation on any of the selection candidates can be confirmed (step SA6: YES), the CPU 18 sets the subject on which the touch operation has been performed, that is, the subject selected by the user as the main subject (step SA7). ).

しかる後、CPU18は、設定した主要被写体の撮影に適したAF制御、及び撮影条件の設定を行う(ステップSA12)。すなわちCPU18は、撮像画像における主要被写体に対応する領域をフォーカス検出領域としたAF制御と、主要被写体に対応する領域の明るさ応じたシャッター速度や、絞りの設定等を行う。   Thereafter, the CPU 18 performs AF control suitable for shooting the set main subject and setting of shooting conditions (step SA12). That is, the CPU 18 performs AF control using the area corresponding to the main subject in the captured image as the focus detection area, and the shutter speed and the aperture setting according to the brightness of the area corresponding to the main object.

一方、ステップSA3の処理で選択候補として検出したいずれかの被写体がアイコン利用領域Aに存在する場合(ステップSA5:YES)、CPU18は、アイコン利用領域Aに存在する1又は複数の被写体について、当該被写体の選択操作に使用される前述した選択操作用アイコンのアイコン配置領域Bにおける表示位置を決定する(ステップSA8)。   On the other hand, when any subject detected as a selection candidate in the process of step SA3 is present in the icon usage area A (step SA5: YES), the CPU 18 The display position of the above-described selection operation icon used in the subject selection operation in the icon arrangement region B is determined (step SA8).

ステップSA8の処理に際してCPU18は、選択操作用アイコンの表示位置として、選択操作用アイコンが対応する被写体の画像内(表示画面3a内)での位置に応じた位置を予め決められた規則に従い決定する。すなわちCPU18は、選択操作用アイコンの上下方向の表示位置を、対応する被写体により近い位置とすることを基本とし、アイコン配置領域Bに存在する他の被写体と重ならない位置で、かつ他の選択操作用アイコンと重ならない位置(選択操作用アイコンが複数である場合のみ)とする。   In the process of step SA8, the CPU 18 determines, as a display position of the selection operation icon, a position corresponding to the position in the image of the subject corresponding to the selection operation icon (in the display screen 3a) according to a predetermined rule. . That is, the CPU 18 basically sets the display position of the selection operation icon in the vertical direction to a position closer to the corresponding subject, and performs another selection operation at a position that does not overlap other subjects existing in the icon arrangement area B. The position does not overlap with the icon for use (only when there are a plurality of selection operation icons).

しかる後、CPU18は、液晶モニタ3に選択操作用アイコンを、被写体との対応関係を明示する表示形態で表示させるとともに、選択操作用アイコンの表示位置をステップSA6の処理で決定した位置に制御する(ステップSA9)。   Thereafter, the CPU 18 displays the selection operation icon on the liquid crystal monitor 3 in a display form that clearly shows the correspondence with the subject, and controls the display position of the selection operation icon to the position determined in the process of step SA6. (Step SA9).

図4(b)は、ステップSA9の処理直後における液晶モニタ3の表示画面3aの状態を示した図4(a)に対応する図である。すなわち図4(b)は、ステップSA9の処理において、アイコン利用領域Aに存在する被写体G1,G2に対応する選択操作用アイコンI1,I2がアイコン配置領域Bに表示された状態を示した図である。   FIG. 4B is a diagram corresponding to FIG. 4A showing the state of the display screen 3a of the liquid crystal monitor 3 immediately after the process of step SA9. That is, FIG. 4B is a diagram showing a state in which the selection operation icons I1 and I2 corresponding to the subjects G1 and G2 existing in the icon use area A are displayed in the icon arrangement area B in the process of step SA9. is there.

図4(b)に示したように、ステップSA9の処理に際してCPU18は、選択操作用アイコンI1,I2から、各々が対応する被写体G1,G2を明示するフォーカス枠F1,F2へ到る矢印線イ、ロを液晶モニタ3に表示させることによって、選択操作用アイコンI1,I2と被写体G1,G2との対応関係を明示する。なお、表示画面3aにおける、選択操作用アイコンI1,I2、及び矢印線イ、ロの表示方法は、フォーカス枠F1,F2,F3と同様にOSD表示等である。   As shown in FIG. 4B, in the process of step SA9, the CPU 18 uses arrow line icons from the selection operation icons I1 and I2 to the focus frames F1 and F2 that clearly indicate the corresponding subjects G1 and G2, respectively. , B is displayed on the liquid crystal monitor 3 to clarify the correspondence between the selection operation icons I1 and I2 and the subjects G1 and G2. Note that the display method of the selection operation icons I1 and I2 and the arrow lines A and B on the display screen 3a is OSD display or the like, as with the focus frames F1, F2, and F3.

そして、選択操作用アイコンの表示後、CPU18は、表示画面3aに対するユーザのタッチ操作の有無、及びタッチ位置の演算を行い、ユーザによりいずれかの選択操作用アイコンに対してタッチ操作が行われたか否かを確認する(ステップSA10)。   After the selection operation icon is displayed, the CPU 18 calculates the presence / absence of the user's touch operation on the display screen 3a and the touch position, and has the user performed a touch operation on any of the selection operation icons? It is confirmed whether or not (step SA10).

選択操作用アイコンのタッチ操作が確認できなかった場合(ステップSA10:NO)、CPU18は、前述したステップSA6の処理へ移行する。   When the touch operation of the selection operation icon cannot be confirmed (step SA10: NO), the CPU 18 proceeds to the process of step SA6 described above.

また、いずれかの選択操作用アイコンのタッチ操作が確認できた場合(ステップSA10:YES)、CPU18は、タッチ操作があった選択操作用アイコンが対応する被写体、つまりユーザによって選択された被写体を主要被写体として設定する(ステップSA11)。   When the touch operation of any selection operation icon is confirmed (step SA10: YES), the CPU 18 mainly selects the subject corresponding to the selection operation icon that has been touched, that is, the subject selected by the user. Set as a subject (step SA11).

図5(a)は、図4(b)に示した2つの選択操作用アイコンI1,I2のうち上に位置する選択操作用アイコンI1がタッチされたときの表示画面3aの状態、図5(b)は、図4(b)に示した2つの選択操作用アイコンI1,I2のうちしたに位置する選択操作用アイコンI1がタッチされたときの表示画面3aの状態をそれぞれ示した図である。図3では省略するが、図5に示したように、いずれかの選択操作用アイコンのタッチ操作が確認できた場合、CPU18は、タッチ操作があった選択操作用アイコンが対応する被写体を明示するフォーカス枠F1,F2の表示形態(表示色等)を変化させることにより、選択された被写体をユーザに確認させる。   FIG. 5A shows the state of the display screen 3a when the selection operation icon I1 located above the two selection operation icons I1 and I2 shown in FIG. 4B is touched. FIG. 4B is a diagram illustrating the state of the display screen 3a when the selection operation icon I1 located in the two selection operation icons I1 and I2 illustrated in FIG. 4B is touched. . Although not shown in FIG. 3, as shown in FIG. 5, when the touch operation of any of the selection operation icons is confirmed, the CPU 18 clearly indicates the subject corresponding to the selection operation icon that has been touched. By changing the display form (display color, etc.) of the focus frames F1, F2, the user can confirm the selected subject.

しかる後、CPU18は、設定した主要被写体の撮影に適したAF制御、及び撮影条件の設定を行う(ステップSA12)。   Thereafter, the CPU 18 performs AF control suitable for shooting the set main subject and setting of shooting conditions (step SA12).

引き続き、CPU18は、ユーザによる撮影操作(シャッタキー10の押下)がなければ(ステップSA13:NO)、ステップSA1の処理へ戻り、新たに取り込んだ撮像画像を対象としてステップSA2以降の処理を繰り返す。   Subsequently, if there is no photographing operation (pressing the shutter key 10) by the user (step SA13: NO), the CPU 18 returns to the process of step SA1, and repeats the processes after step SA2 for the newly captured image.

そして、CPU18は、ユーザによる撮影操作があれば(ステップSA13:YES)、直前に設定した撮影条件に基づく撮影処理を実行する(ステップSA14)。すなわち、CPU18は、撮像素子13を駆動して記録用の撮像画像を取得し、取得した撮像画像に所定の処理を施した後の撮影画像を画像メモリ23に記録させる。以後、CPU18は、ステップSA1の処理へ戻り、前述した全ての処理を繰り返す。   If there is a shooting operation by the user (step SA13: YES), the CPU 18 executes a shooting process based on the shooting conditions set immediately before (step SA14). That is, the CPU 18 drives the image sensor 13 to acquire a captured image for recording, and records the captured image after performing a predetermined process on the acquired captured image in the image memory 23. Thereafter, the CPU 18 returns to the process of step SA1 and repeats all the processes described above.

以上のように、本実施形態においては、被写体検出機能の使用が設定されているときの撮影モードでは、主要被写体の選択候補となる被写体がデジタルカメラ1によって自動的に検出され、ユーザは、検出された被写体のいずれかをタッチすることにより、所望の被写体を主要被写体として選択することができる。   As described above, in the present embodiment, in the shooting mode when the use of the subject detection function is set, a subject that is a main subject selection candidate is automatically detected by the digital camera 1, and the user can detect A desired subject can be selected as a main subject by touching one of the subjects.

その際、ユーザは、例えば図5に示したように、アイコン利用領域Aに位置する被写体G1,G2については、アイコン配置領域Bに表示された選択操作用アイコンI1,I2をタッチすることにより、それらを選択することができる。   At that time, the user touches the selection operation icons I1 and I2 displayed in the icon arrangement area B for the subjects G1 and G2 located in the icon use area A, for example, as shown in FIG. You can select them.

ここで、アイコン利用領域Aは、ユーザがカメラ本体2を両手でホールドし、かつ右手の親指等を用いてタッチ操作を行うとき、画角を保持したままでのタッチ操作が行いにくい領域である。また、それとは逆に、アイコン配置領域Bは、ユーザがカメラ本体2を両手でホールドし、かつ右手の親指等を用いてタッチ操作を行うとき、画角を保持したままでのタッチ操作が容易な領域である。   Here, the icon use area A is an area in which when the user holds the camera body 2 with both hands and performs a touch operation using the thumb of the right hand or the like, the touch operation is difficult to perform while maintaining the angle of view. . On the other hand, when the user holds the camera body 2 with both hands and performs a touch operation using the thumb of the right hand or the like, the icon placement area B can be easily touched while maintaining the angle of view. This is an important area.

したがって、ユーザがカメラ本体2を両手でホールドするとともに、右手の親指を用いて所望の被写体を選択(タッチ)するときには、それが画角を保持したままの状態では選択(タッチ)しづらい位置に表示されている場合あっても、画角を保持したままの状態で、それを容易に、かつ迅速に選択することができる。   Therefore, when the user holds the camera body 2 with both hands and selects (touches) a desired subject using the thumb of the right hand, it is difficult to select (touch) in a state where the angle of view is maintained. Even if it is displayed, it can be easily and quickly selected while maintaining the angle of view.

つまり、本実施形態においては、被写体の選択に使用される選択操作用アイコンを、被写体とは異なる位置に表示させることによって、タッチパネルを用いて表示画面3a内の任意の被写体を選択する際の作業性を向上させることができる。   That is, in this embodiment, the operation for selecting an arbitrary subject in the display screen 3a using the touch panel by displaying the selection operation icon used for selecting the subject at a position different from the subject. Can be improved.

また、本実施形態においては、任意の被写体がアイコン利用領域Aに存在することを条件として、その被写体の選択に使用される選択操作用アイコンをアイコン配置領域Bに表示させるようにした。つまり、アイコン配置領域Bに表示する選択操作用アイコンを、アイコン利用領域Aに存在する被写体の選択に使用されるものだけに限定した。よって、表示画面3aに表示中のライブビュー画像の見やすさを維持したままで、ユーザが表示画面3a内の被写体を選択する際の作業性を向上させることができる。   Further, in the present embodiment, on the condition that an arbitrary subject exists in the icon use area A, the selection operation icon used for selecting the subject is displayed in the icon arrangement area B. That is, the selection operation icons displayed in the icon arrangement area B are limited to those used for selection of subjects existing in the icon usage area A. Therefore, it is possible to improve workability when the user selects a subject in the display screen 3a while maintaining the visibility of the live view image being displayed on the display screen 3a.

また、本実施形態においては、アイコン配置領域Bにおける選択操作用アイコンの上下位置方向の表示位置を、対応する被写体により近い位置とした。つまり、アイコン配置領域Bにおける選択操作用アイコンの表示位置を、前記表示画面3aにおける対応する被写体の位置に応じて決定することにより、選択操作用アイコンの表示位置を動的に変化させるようにした。   In the present embodiment, the display position of the selection operation icon in the icon arrangement area B in the vertical position direction is set closer to the corresponding subject. In other words, the display position of the selection operation icon is dynamically changed by determining the display position of the selection operation icon in the icon arrangement area B according to the position of the corresponding subject on the display screen 3a. .

そのため、アイコン利用領域Aに複数の被写体が存在しており、アイコン配置領域Bに複数の選択操作用アイコンが表示される場合には、複数の被写体間の位置関係と、複数の選択操作用アイコン間の位置関係とを極力一致させることができる。したがって、ユーザがアイコン利用領域A内の被写体を選択する際の作業性を向上させることができる。   Therefore, when there are a plurality of subjects in the icon usage region A and a plurality of selection operation icons are displayed in the icon arrangement region B, the positional relationship between the plurality of subjects and the plurality of selection operation icons are displayed. The positional relationship between them can be matched as much as possible. Therefore, it is possible to improve workability when the user selects a subject in the icon usage area A.

また、本実施形態においては、アイコン利用領域Aに複数の被写体が存在しており、アイコン配置領域Bに複数の選択操作用アイコンが表示される場合には、各々の選択操作用アイコンの表示位置を他の選択操作用アイコンと重ならない位置とした。つまり、各々の選択操作用アイコンの表示位置を他のアイコンとの関係を考慮した位置とした。これによっても、ユーザがアイコン利用領域A内の被写体を選択する際の作業性を向上させることができる。   In the present embodiment, when there are a plurality of subjects in the icon use area A and a plurality of selection operation icons are displayed in the icon arrangement area B, the display position of each selection operation icon is displayed. Is a position that does not overlap with other selection operation icons. That is, the display position of each selection operation icon is set in consideration of the relationship with other icons. This also improves the workability when the user selects a subject in the icon usage area A.

また、本実施形態においては、選択操作用アイコンの表示に際しては、選択操作用アイコンを被写体との対応関係を明示する表示形態で表示させるようにした。これによっても、ユーザがアイコン利用領域A内の被写体を選択する際の作業性を向上させることができる。   In the present embodiment, when the selection operation icon is displayed, the selection operation icon is displayed in a display form that clearly shows the correspondence with the subject. This also improves the workability when the user selects a subject in the icon usage area A.

なお、本実施形態においては、アイコン配置領域Bを、ユーザがカメラ本体2を両手でホールドし、かつ右手の親指等を用いてタッチ操作を行うとき、画角を保持したままでのタッチ操作が容易な領域とした場合について説明した。しかし、アイコン配置領域Bは、例えばユーザが右手の親指等を用いてタッチ操作を行うとき、画角を保持したままでのタッチ操作が容易な領域としてもよい。その場合、アイコン配置領域Bは、本実施形態とは逆に表示画面3aの左辺に沿った領域とすればよい。   In the present embodiment, when the user holds the camera body 2 with both hands and performs the touch operation using the thumb of the right hand or the like, the icon placement area B can be touched with the angle of view maintained. The case where the area is easy was described. However, the icon arrangement area B may be an area where the user can easily perform the touch operation while maintaining the angle of view when the user performs a touch operation using the thumb of the right hand or the like. In that case, the icon arrangement area B may be an area along the left side of the display screen 3a, contrary to the present embodiment.

(実施形態2)
次に、本発明の第2の実施形態について説明する。本実施形態は、図1、及び図2に示した構成のデジタルカメラ1において、撮影モードで使用可能な機能として顔検出機能が設けられるとともに、ユーザが第1の実施形態で説明したアイコン利用領域とアイコン配置領域として任意の領域を設定できるものである。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. In the present embodiment, the digital camera 1 having the configuration shown in FIGS. 1 and 2 is provided with a face detection function as a function that can be used in the shooting mode, and the user uses the icon use area described in the first embodiment. An arbitrary area can be set as the icon arrangement area.

本実施形態において、プログラムメモリ26には、CPU18に顔検出処理を行わせるためのプログラム、及び顔検出処理に必要とする各種のデータが記憶されている。なお、CPU18による顔検出処理は、撮像画像を対象として人物の顔部分が存在する顔領域を、人物の顔に関する輪郭や色、及び目、口、鼻といった各パーツの配置等を示すテンプレートを用いた公知のテンプレートマッチング技術によって1又は複数検出する処理である。   In the present embodiment, the program memory 26 stores a program for causing the CPU 18 to perform face detection processing and various data necessary for the face detection processing. Note that the face detection processing by the CPU 18 uses a template indicating the face area where a person's face portion exists for a captured image, the outline and color of the person's face, and the arrangement of parts such as eyes, mouth, and nose. This is a process of detecting one or more by the known template matching technique.

また、プログラムメモリ26には、顔検出機能の使用が設定されているときの撮影モードにおいてCPU18に後述する処理を実行させるためのプログラムが記憶されている。   Further, the program memory 26 stores a program for causing the CPU 18 to execute processing to be described later in the shooting mode when the use of the face detection function is set.

次に、本実施形態におけるデジタルカメラ1の本発明に係る動作について説明する。図6は、顔検出機能の使用が設定されているときの撮影モードにおいてCPU18が実行する処理の内容を示したフローチャートである。   Next, the operation | movement which concerns on this invention of the digital camera 1 in this embodiment is demonstrated. FIG. 6 is a flowchart showing the contents of processing executed by the CPU 18 in the shooting mode when the use of the face detection function is set.

CPU18は、撮影モードでの動作を開始すると、直ちに所定のフレームレートでの撮像処理を行い(ステップSB1)、ライブビュー画像を液晶モニタ3に表示させる(ステップSB2)。   When starting the operation in the shooting mode, the CPU 18 immediately performs an imaging process at a predetermined frame rate (step SB1), and displays a live view image on the liquid crystal monitor 3 (step SB2).

CPU18は、液晶モニタ3にライブビュー画像を表示させている間、ユーザによる領域設定要求の有無を逐次確認する(ステップSB3)。ユーザによる領域設定要求は、表示画面3aに対する予め決められたタッチ操作、例えば表示画面3aをタッチしたままで指で円を描く操作によって行われる。   While displaying the live view image on the liquid crystal monitor 3, the CPU 18 sequentially confirms whether there is an area setting request by the user (step SB3). The area setting request by the user is made by a predetermined touch operation on the display screen 3a, for example, an operation of drawing a circle with a finger while touching the display screen 3a.

そして、CPU18は、ユーザから領域設定要求があった場合には(ステップSB3:YES)、表示画面3aに対するユーザの領域指定操作に応じて、アイコン表示領域とアイコン配置領域として任意の領域を新たに設定する(ステップSB4)。   Then, when there is an area setting request from the user (step SB3: YES), the CPU 18 newly sets arbitrary areas as an icon display area and an icon arrangement area in accordance with the user area specifying operation on the display screen 3a. Set (step SB4).

本実施形態においては、ユーザによるアイコン表示領域とアイコン配置領域の指定方法として2種類の指定方法が予め用意されている。第1の指定方法は、表示画面3aの全域を任意の位置で2つの領域に区画し、一方の領域をアイコン表示領域として指定し、他方の領域をアイコン配置領域として指定する方法である。また、第2の指定方法は、表示画面3a内に所望とするアイコン表示領域とアイコン配置領域を個別に指示する方法である。   In this embodiment, two types of designation methods are prepared in advance as designation methods for the icon display area and the icon arrangement area by the user. The first designation method is a method in which the entire area of the display screen 3a is divided into two areas at arbitrary positions, one area is designated as an icon display area, and the other area is designated as an icon arrangement area. The second designation method is a method for individually designating a desired icon display area and icon arrangement area in the display screen 3a.

第1の指定方法による領域指定操作において、ユーザは、アイコン表示領域とアイコン配置領域とを区画する区画線を描くように、表示画面3aをタッチしたままで指を移動させた後、アイコン配置領域とすべき側の領域内の任意の位置をタッチする。   In the area specifying operation by the first specifying method, the user moves the finger while touching the display screen 3a so as to draw a partition line that partitions the icon display area and the icon arrangement area, and then the icon arrangement area Touch an arbitrary position in the area on the side to be.

また、第2の指定方法による領域指定操作において、ユーザは、まず、表示画面3a上において、希望するアイコン表示領域と他の領域とを区画する区画線を描くように、表示画面3aをタッチしたままで指を移動させた後、区画線により区画した領域のうちでアイコン表示領域とすべき側の領域内の任意の位置をタッチする。次に、希望するアイコン配置領域と他の領域とを区画する区画線を描くように、表示画面3aをタッチしたままで指を移動させた後、区画線により区画した領域のうちでアイコン配置領域とすべき側の領域内の任意の位置をタッチする。   In the area specifying operation by the second specifying method, the user first touches the display screen 3a so as to draw a partition line that partitions the desired icon display area and other areas on the display screen 3a. After the finger is moved as it is, an arbitrary position in the region to be the icon display region among the regions partitioned by the partition lines is touched. Next, after moving a finger while touching the display screen 3a so as to draw a partition line that partitions the desired icon layout area and other areas, the icon layout area among the areas partitioned by the partition line Touch an arbitrary position in the area on the side to be.

そして、ステップSB4の処理においてCPU18は、上記の第1又は第2の指定方法による領域指定操作によってユーザにアイコン表示領域とアイコン配置領域とを指定させた後、指定されたアイコン表示領域とアイコン配置領域とを特定する領域データをプログラムメモリ26に記憶する。   Then, in the process of step SB4, the CPU 18 causes the user to designate the icon display area and the icon arrangement area by the area designation operation according to the first or second designation method, and then designates the designated icon display area and the icon arrangement. Area data for specifying the area is stored in the program memory 26.

図7(a)は、ステップSB4の処理に際して、ユーザにより第2の指定方法による領域指定操作が行われたとき、CPU18がユーザの要求に応じて設定するアイコン表示領域Aとアイコン配置領域Bとの一例を示した図である。すなわちアイコン表示領域Aとアイコン配置領域Bとが互いに離間する領域である場合の例を示した図である。   FIG. 7A shows an icon display area A and an icon arrangement area B that are set by the CPU 18 in response to a user request when an area designation operation is performed by the user in accordance with the second designation method in the process of step SB4. It is the figure which showed an example. That is, it is a diagram illustrating an example in which the icon display area A and the icon arrangement area B are areas separated from each other.

なお、アイコン表示領域とアイコン配置領域とを新たに設定した場合、CPU18は、いったんステップSB1の処理に戻り、前述した処理を繰り返す。   When the icon display area and the icon arrangement area are newly set, the CPU 18 returns to the process of step SB1 and repeats the process described above.

一方、撮像処理を行った直後の処理タイミングでユーザによる領域設定要求がなかった場合(ステップSB3:NO)、CPU18は、撮像画像(画像処理部17により生成されたYUVデータ)を処理対象とした顔検出処理を行い、撮像画像から主要被写体の選択候補となる顔を1又は複数検出する(ステップSB5)。なお、顔検出処理に際してCPU18は、撮像画像内における大きさが予め決められている大きさ(面積)以上の顔を検出する。   On the other hand, when there is no area setting request by the user at the processing timing immediately after the imaging process is performed (step SB3: NO), the CPU 18 sets the captured image (YUV data generated by the image processing unit 17) as a processing target. Face detection processing is performed to detect one or more faces that are candidates for selection of the main subject from the captured image (step SB5). In the face detection process, the CPU 18 detects a face whose size in the captured image is equal to or larger than a predetermined size (area).

次に、CPU18は、検出した顔を明示する操作枠をライブビュー画像に重ねて液晶モニタ3に表示させる(ステップSB6)。操作枠の具体的な表示方法は、第1の実施形態のフォーカス枠と同様にOSD表示等である。   Next, the CPU 18 causes the liquid crystal monitor 3 to display an operation frame that clearly indicates the detected face on the live view image (step SB6). A specific method for displaying the operation frame is OSD display or the like, similar to the focus frame of the first embodiment.

図7(b)は、ステップSB6の処理直後における液晶モニタ3の表示画面3aの状態の一例を示した図である。図7(b)に示したように、ステップSB5の処理において任意の人物の顔G11,G12,G13,G14が検出された場合には、各顔G11,G12,G13,G14を明示する4つの操作枠F11,F12,F13,F14がライブビュー画像に重ねて表示される。   FIG. 7B is a diagram showing an example of the state of the display screen 3a of the liquid crystal monitor 3 immediately after the process of step SB6. As shown in FIG. 7B, when any person's face G11, G12, G13, G14 is detected in the processing of step SB5, four faces G11, G12, G13, G14 are specified. Operation frames F11, F12, F13, and F14 are displayed so as to overlap the live view image.

なお、図7(a)及び図7(b)における破線は、アイコン利用領域Aとアイコン配置領域Bとを便宜的に示したものであり、液晶モニタ3には表示されない。   The broken lines in FIGS. 7A and 7B indicate the icon use area A and the icon arrangement area B for convenience, and are not displayed on the liquid crystal monitor 3.

これ以降、CPU18は、第1の実施形態で説明した図3のステップSA5〜ステップSA14と同様の以下の処理を実行する。但し、主要被写体の選択候補は任意の人物の顔である。   Thereafter, the CPU 18 executes the following processing similar to Step SA5 to Step SA14 of FIG. 3 described in the first embodiment. However, the main subject selection candidate is the face of an arbitrary person.

すなわちCPU18は、液晶モニタ3の表示画面3aの前述したアイコン利用領域Aに、ステップSB5の処理で検出した選択候補の顔のいずれかが存在するか否かを確認する(ステップSB7)。ステップSB7の処理においてCPU18は、選択候補として検出した顔のうちに、その全ての領域がアイコン利用領域Aに含まれる被写体が存在するとき、アイコン利用領域Aに選択候補の被写体のいずれかが存在するものと判断する。   That is, the CPU 18 checks whether any of the selection candidate faces detected in the process of step SB5 exists in the icon use area A of the display screen 3a of the liquid crystal monitor 3 (step SB7). In the processing of step SB7, when there are subjects whose entire area is included in the icon usage region A among the faces detected as selection candidates, any of the selection candidate subjects exists in the icon usage region A. Judging what to do.

選択候補の顔がアイコン利用領域に存在しない場合(ステップSB7:NO)、CPU18は、表示画面3aに対するユーザのタッチ操作の有無、及びタッチ位置の演算を行い、ユーザによって、主要被写体の選択候補として検出した1又は複数の顔(操作枠)のいずれかに対してタッチ操作が行われたか否かを確認する(ステップSB8)。   If the selection candidate's face does not exist in the icon use area (step SB7: NO), the CPU 18 calculates the presence / absence of the user's touch operation on the display screen 3a and the touch position, and the user selects the main subject as a selection candidate for the main subject. It is confirmed whether or not a touch operation has been performed on one of the detected one or a plurality of faces (operation frames) (step SB8).

選択候補の顔のタッチ操作が確認できなかった場合(ステップSB8:NO)、CPU18は直ちにステップSB1の処理に戻り、前述した処理を繰り返す。   When the touch operation of the selection candidate face cannot be confirmed (step SB8: NO), the CPU 18 immediately returns to the process of step SB1 and repeats the above-described process.

また、選択候補のいずれかの顔のタッチ操作が確認できた場合(ステップSB8:YES)、CPU18は、タッチ操作があった顔、つまりユーザによって選択された顔を主要被写体として設定する(ステップSB9)。   If the touch operation on any of the selection candidates is confirmed (step SB8: YES), the CPU 18 sets the face on which the touch operation has been performed, that is, the face selected by the user as the main subject (step SB9). ).

しかる後、CPU18は、設定した主要被写体の撮影に適したAF制御、及び撮影条件の設定を行う(ステップSB14)。すなわちCPU18は、撮像画像における主要被写体に対応する領域をフォーカス検出領域としたAF制御と、主要被写体に対応する領域の明るさ応じたシャッター速度や、絞りの設定等を行う。   Thereafter, the CPU 18 performs AF control suitable for shooting the set main subject and setting of shooting conditions (step SB14). That is, the CPU 18 performs AF control using the area corresponding to the main subject in the captured image as the focus detection area, and the shutter speed and the aperture setting according to the brightness of the area corresponding to the main object.

一方、ステップSB5の処理で選択候補として検出したいずれかの顔がアイコン利用領域Aに存在する場合(ステップSB7:YES)、CPU18は、アイコン利用領域Aに存在する1又は複数の顔について、当該顔の選択操作(指示)に使用される選択操作用アイコンのアイコン配置領域Bにおける表示位置を決定する(ステップSB10)。   On the other hand, if any of the faces detected as selection candidates in the process of step SB5 exists in the icon usage area A (step SB7: YES), the CPU 18 The display position in the icon arrangement area B of the selection operation icon used for the face selection operation (instruction) is determined (step SB10).

ステップSB10の処理に際してCPU18は、選択操作用アイコンの表示位置として、選択操作用アイコンが対応する被写体の画像内(表示画面3a内)での位置に応じた位置を予め決められた規則に従い決定する。本実施形態においてもCPU18は、選択操作用アイコンの上下位置方向の位置を、対応する被写体により近い位置とすることを基本とし、アイコン配置領域Bに存在する他の被写体と重ならない位置で、かつ他の選択操作用アイコンと重ならない位置(選択操作用アイコンが複数である場合のみ)とする。   In the process of step SB10, the CPU 18 determines, as a display position of the selection operation icon, a position corresponding to the position in the image of the subject corresponding to the selection operation icon (in the display screen 3a) according to a predetermined rule. . Also in the present embodiment, the CPU 18 basically sets the position in the vertical position direction of the selection operation icon to a position closer to the corresponding subject, is a position that does not overlap with other subjects existing in the icon arrangement area B, and The position does not overlap with other selection operation icons (only when there are a plurality of selection operation icons).

しかる後、CPU18は、液晶モニタ3に選択操作用アイコンを、被写体との対応関係を明示する表示形態で表示させるとともに、選択操作用アイコンの表示位置をステップSB10の処理で決定した位置に制御する(ステップSB11)。   Thereafter, the CPU 18 displays the selection operation icon on the liquid crystal monitor 3 in a display form that clearly shows the correspondence with the subject, and controls the display position of the selection operation icon to the position determined in the process of step SB10. (Step SB11).

図8は、ステップSB11の処理直後における液晶モニタ3の表示画面3aの状態を示した図7(a)、図7(b)に対応する図である。すなわち図8は、ステップSB11の処理において、アイコン利用領域Aに存在する顔G12,G13に対応する選択操作用アイコンI1,I2がアイコン配置領域Bに表示された状態を示した図である。   FIG. 8 is a diagram corresponding to FIGS. 7A and 7B showing the state of the display screen 3a of the liquid crystal monitor 3 immediately after the process of step SB11. That is, FIG. 8 is a diagram showing a state in which the selection operation icons I1 and I2 corresponding to the faces G12 and G13 existing in the icon use area A are displayed in the icon arrangement area B in the process of step SB11.

図8に示したように、ステップSB11の処理に際してCPU18は、選択操作用アイコンI1,I2と、各々が対応する顔G12,G13を明示する操作枠F12,F13とを連結する連結線ハ、ニを液晶モニタ3に表示させることによって、選択操作用アイコンI1,I2と顔G12,G13との対応関係を明示する。なお、表示画面3aにおける、選択操作用アイコンI1,I2、及び連結線ハ、ニの表示方法は、操作枠F12,F13と同様にOSD表示等である。   As shown in FIG. 8, in the process of step SB11, the CPU 18 connects the selection operation icons I1 and I2 to the operation frames F12 and F13 that clearly indicate the corresponding faces G12 and G13, respectively. Is displayed on the liquid crystal monitor 3 to clearly show the correspondence between the selection operation icons I1 and I2 and the faces G12 and G13. Note that the display method of the selection operation icons I1 and I2 and the connection lines C and D on the display screen 3a is OSD display or the like, similarly to the operation frames F12 and F13.

そして、選択操作用アイコンの表示後、CPU18は、表示画面3aに対するユーザのタッチ操作の有無、及びタッチ位置の演算を行い、ユーザによりいずれかの選択操作用アイコンに対してタッチ操作が行われたか否かを確認する(ステップSB12)。   After the selection operation icon is displayed, the CPU 18 calculates the presence / absence of the user's touch operation on the display screen 3a and the touch position, and has the user performed a touch operation on any of the selection operation icons? It is confirmed whether or not (step SB12).

選択操作用アイコンのタッチ操作が確認できなかった場合(ステップSB12:NO)、CPU18は、前述したステップSB8の処理へ移行する。   When the touch operation of the selection operation icon cannot be confirmed (step SB12: NO), the CPU 18 proceeds to the process of step SB8 described above.

また、いずれかの選択操作用アイコンのタッチ操作が確認できた場合(ステップSB12:YES)、CPU18は、タッチ操作があった選択操作用アイコンが対応する顔、つまりユーザによって選択された顔を主要被写体として設定する(ステップSB13)。   When the touch operation of any of the selection operation icons is confirmed (step SB12: YES), the CPU 18 mainly selects the face corresponding to the selection operation icon that has been touched, that is, the face selected by the user. Set as a subject (step SB13).

なお、図には示さないが、いずれかの選択操作用アイコンのタッチ操作が確認できた場合、CPU18は、タッチ操作があった選択操作用アイコンが対応する顔を明示する操作枠F12,F13の表示形態(表示色等)を変化させることにより、選択した顔をユーザに確認させる。   Although not shown in the figure, when the touch operation of any selection operation icon has been confirmed, the CPU 18 displays the operation frames F12 and F13 that clearly indicate the face corresponding to the selection operation icon that has been touched. By changing the display form (display color, etc.), the user is made to confirm the selected face.

しかる後、CPU18は、設定した主要被写体の撮影に適したAF制御、及び撮影条件の設定を行う(ステップSB14)。   Thereafter, the CPU 18 performs AF control suitable for shooting the set main subject and setting of shooting conditions (step SB14).

引き続き、CPU18は、ユーザによる撮影操作(シャッタキー10の押下)がなければ(ステップSB15:NO)、ステップSB1の処理へ戻り、前述した処理を繰り返す。   Subsequently, if there is no photographing operation (pressing the shutter key 10) by the user (step SB15: NO), the CPU 18 returns to the process of step SB1 and repeats the above-described process.

そして、CPU18は、ユーザによる撮影操作があれば(ステップSB15:YES)、直前に設定した撮影条件に基づく撮影処理を実行する(ステップSB16)。すなわち、CPU18は、撮像素子13を駆動して記録用の撮像画像を取得し、取得した撮像画像に所定の処理を施した後の撮影画像を画像メモリ23に記録させる。以後、CPU18は、ステップSB1の処理へ戻り、前述した全ての処理を繰り返す。   If there is a photographing operation by the user (step SB15: YES), the CPU 18 executes a photographing process based on the photographing condition set immediately before (step SB16). That is, the CPU 18 drives the image sensor 13 to acquire a captured image for recording, and records the captured image after performing a predetermined process on the acquired captured image in the image memory 23. Thereafter, the CPU 18 returns to the process of step SB1 and repeats all the processes described above.

以上のように、本実施形態においては、顔検出機能の使用が設定されているときの撮影モードでは、任意の人物の顔がデジタルカメラ1により主要被写体の選択候補として自動的に検出され、ユーザは、検出された顔のいずれかをタッチすることにより、所望の顔を主要被写体として選択することができる。   As described above, in the present embodiment, in the shooting mode when the use of the face detection function is set, the face of an arbitrary person is automatically detected by the digital camera 1 as the main subject selection candidate, and the user The user can select a desired face as a main subject by touching any of the detected faces.

その際、ユーザは、例えば図8に示したアイコン利用領域Aに位置する顔G12,G13については、アイコン配置領域Bに表示された選択操作用アイコンI1,I2をタッチすることにより、それらを選択することができる。   At that time, for example, the faces G12 and G13 located in the icon use area A shown in FIG. 8 are selected by touching the selection operation icons I1 and I2 displayed in the icon arrangement area B. can do.

ここで、本実施形態においては、第1の実施形態とは異なり、ユーザがアイコン利用領域Aとアイコン配置領域Bとを必要に応じて設定することができる。したがって、ユーザは自己の使い勝手に応じてアイコン利用領域Aとアイコン配置領域Bとを設定することにより、表示画面3a内の任意の全ての顔を、画角を保持したままの状態で容易に、かつ迅速に選択することができる。   Here, in the present embodiment, unlike the first embodiment, the user can set the icon use area A and the icon arrangement area B as necessary. Therefore, the user can easily set all the faces in the display screen 3a while maintaining the angle of view by setting the icon use area A and the icon arrangement area B according to his / her convenience. And you can select quickly.

つまり、表示画面3aに存在する選択対象のオブジェクトが人物の顔である場合において、顔の選択に使用される選択操作用アイコンを、顔とは異なる位置に表示させることによって、タッチパネルを用いて表示画面3a内の任意の顔を選択する際の作業性を向上させることができる。   That is, when the object to be selected present on the display screen 3a is a human face, the selection operation icon used for face selection is displayed at a position different from the face, and is displayed using the touch panel. Workability at the time of selecting an arbitrary face in the screen 3a can be improved.

しかも、本実施形態においては、アイコン利用領域Aとアイコン配置領域Bとをユーザが自由に設定できるようにしたことから、ユーザが表示画面3a内の顔を選択する際の作業性をより一層向上させることができる。   Moreover, in the present embodiment, since the user can freely set the icon use area A and the icon arrangement area B, the workability when the user selects a face in the display screen 3a is further improved. Can be made.

また、本実施形態においては、表示画面3aにおけるアイコン利用領域Aとアイコン配置領域Bとを適宜変更可能としたこと、及び表示画面3aに存在する選択候補のオブジェクトが人物の顔であること以外については、本発明に関する部分の構成が第1の実施形態と同様である。したがって、本実施形態における上述した以外の効果については第1の実施形態と同様であるため、説明を省略する。   In the present embodiment, the icon use area A and the icon arrangement area B on the display screen 3a can be changed as appropriate, and the selection candidate object existing on the display screen 3a is a human face. The configuration of the part related to the present invention is the same as that of the first embodiment. Therefore, since effects other than those described above in the present embodiment are the same as those in the first embodiment, description thereof will be omitted.

(実施形態3)
次に、本発明の第3の実施形態について説明する。本実施形態は、本発明を適用したナビゲーション装置に関するものである。本実施形態のナビゲーション装置は、公知のGPS(Global Positioning System)を利用してユーザを任意の目的地へ案内する一般的なナビゲーション機能を有するものであって、以下の構成を備えている。
(Embodiment 3)
Next, a third embodiment of the present invention will be described. The present embodiment relates to a navigation apparatus to which the present invention is applied. The navigation device of this embodiment has a general navigation function for guiding a user to an arbitrary destination using a known GPS (Global Positioning System), and has the following configuration.

図9は、本実施形態におけるナビゲーション装置101を示す外観図である。ナビゲーション装置101は携帯型であって、携帯に適した形状及び大きさの装置本体102を有している。装置本体102の表面側には、液晶モニタ103により構成される表示部が設けられており、液晶モニタ103の表示画面103aにはタッチパネルとしての機能が確保されている。また、装置本体102の周面には電源キー104、及び他の操作キー105,106が設けられている。   FIG. 9 is an external view showing the navigation device 101 in the present embodiment. The navigation device 101 is portable, and has a device body 102 having a shape and size suitable for carrying. A display unit including a liquid crystal monitor 103 is provided on the front surface side of the apparatus main body 102, and the display screen 103 a of the liquid crystal monitor 103 has a function as a touch panel. A power key 104 and other operation keys 105 and 106 are provided on the peripheral surface of the apparatus main body 102.

図10は、ナビゲーション装置101の電気的構成の概略を示すブロック図である。図10に示したようにナビゲーション装置101は、主としてCPU111と、GPSモジュール112、地図データ記憶部113、液晶モニタ103、操作部114、ROM(Read Only Memory)115、RAM116(Random Access Memory)により構成されている。   FIG. 10 is a block diagram showing an outline of the electrical configuration of the navigation device 101. As shown in FIG. 10, the navigation device 101 mainly includes a CPU 111, a GPS module 112, a map data storage unit 113, a liquid crystal monitor 103, an operation unit 114, a ROM (Read Only Memory) 115, and a RAM 116 (Random Access Memory). Has been.

液晶モニタ103は、バックライト付きのカラー液晶表示パネル121と、カラー液晶表示パネル121の表面に一体的に設けられた静電容量型等のタッチセンサ122と、カラー液晶表示パネル121及びタッチセンサ122の駆動回路(図示せず)とから構成される。   The liquid crystal monitor 103 includes a color liquid crystal display panel 121 with a backlight, a capacitive type touch sensor 122 integrally provided on the surface of the color liquid crystal display panel 121, the color liquid crystal display panel 121, and the touch sensor 122. Drive circuit (not shown).

GPSモジュール112は、複数の測位衛星(GPS衛星)から送られてくる電波をアンテナ112aにより受信することによって自己の現在位置を計測する。そして、GPSモジュール112は、計測した現在位置を示す位置情報、つまり緯度、経度、高度からなる測位データをCPU111に供給する。   The GPS module 112 measures its own current position by receiving radio waves transmitted from a plurality of positioning satellites (GPS satellites) by the antenna 112a. The GPS module 112 supplies position information indicating the measured current position, that is, positioning data including latitude, longitude, and altitude to the CPU 111.

地図データ記憶部113は、液晶モニタ103に表示される日本国内の各地の地図を表す地図データが記憶されたROM等のメモリである。地図データ記憶部113に記憶されている地図データには、複数段階の縮尺の地図の表示に使用される各種の数値データや、ランドマーク、公共施設、店舗等を表すマーク(ピクトグラム等)の画像データが含まれる。   The map data storage unit 113 is a memory such as a ROM in which map data representing a map of each place in Japan displayed on the liquid crystal monitor 103 is stored. The map data stored in the map data storage unit 113 includes various numerical data used for displaying a map at a plurality of scales, and images of marks (pictograms, etc.) representing landmarks, public facilities, stores, etc. Contains data.

操作部114は、電源キー104、及び他の操作キー105,106を含み、キー操作に応じたキー入力信号をCPU111に供給する。ROM115には、CPU111にナビゲーション装置101を制御させるための種々のプログラムが記憶されている。   The operation unit 114 includes a power key 104 and other operation keys 105 and 106, and supplies a key input signal corresponding to the key operation to the CPU 111. The ROM 115 stores various programs for causing the CPU 111 to control the navigation device 101.

CPU111は、ROM115に記憶されているプログラムに従い動作することにより、GPSモジュール112から供給される測位データに基づき、現在地周辺の地図を液晶モニタ103に表示させる。また、CPU111は、上記プログラムに従い、ユーザを任意の目的地に案内するためのナビゲーション処理、及び後述する処理を行う。   The CPU 111 operates according to a program stored in the ROM 115 to display a map around the current location on the liquid crystal monitor 103 based on the positioning data supplied from the GPS module 112. Further, the CPU 111 performs a navigation process for guiding the user to an arbitrary destination and a process to be described later according to the program.

RAM116は、CPU111が各種の処理を実行する際に作業用のメモリとして使用される。   The RAM 116 is used as a working memory when the CPU 111 executes various processes.

以下、本実施形態におけるナビゲーション装置101の本発明に係る動作について説明する。   Hereafter, the operation | movement which concerns on this invention of the navigation apparatus 101 in this embodiment is demonstrated.

ナビゲーション装置101には、ユーザに指定された特定の種類(又は、カテゴリー)の場所を現在地の周辺から検索する場所検索機能が設けられている。なお、特定の種類(又は、カテゴリー)の場所とは、例えばガソリンスタンド、トイレ、駅である。そして、ユーザが、ナビゲーション機能の使用に際し上記の場所検索機能を用いて検索した場所を目的地として指定する場合には、ROM115に記憶されているプログラムに従いCPU111が以下の処理を行う。   The navigation device 101 is provided with a location search function for searching a specific type (or category) specified by the user from the vicinity of the current location. The specific type (or category) place is, for example, a gas station, a toilet, or a station. When the user designates a place searched using the place search function as a destination when using the navigation function, the CPU 111 performs the following process according to the program stored in the ROM 115.

図11は、ナビゲーション処理に先立つ目的地の設定に関するCPU111の処理内容の一例を示したフローチャートである。   FIG. 11 is a flowchart showing an example of the processing contents of the CPU 111 related to the destination setting prior to the navigation processing.

ナビゲーション装置101の動作中においてCPU111は、GPSモジュール112から一定の処理タイミングで供給される測位データに基づき、現在地の周辺地図を液晶モニタ103に表示させる(ステップSC1)。   During the operation of the navigation device 101, the CPU 111 displays a map around the current location on the liquid crystal monitor 103 based on the positioning data supplied from the GPS module 112 at a fixed processing timing (step SC1).

また、液晶モニタ103に周辺地図を表示させている間、CPU111は、ユーザによる領域設定要求の有無を逐次確認する(ステップSC2)。ユーザによる領域設定要求は、表示画面3aに対する予め決められたタッチ操作、例えば表示画面3aをタッチしたままで指で円を描く操作によって行われる。   Further, while the peripheral map is displayed on the liquid crystal monitor 103, the CPU 111 sequentially confirms whether or not there is an area setting request by the user (step SC2). The area setting request by the user is made by a predetermined touch operation on the display screen 3a, for example, an operation of drawing a circle with a finger while touching the display screen 3a.

CPU111は、ユーザから領域設定要求があると(ステップSC2:YES)、表示画面103aに対するユーザの領域指定操作に応じて、表示画面103aにアイコン表示領域とアイコン配置領域とを設定する(ステップSC3)。   When there is an area setting request from the user (step SC2: YES), the CPU 111 sets an icon display area and an icon arrangement area on the display screen 103a according to the user's area specifying operation on the display screen 103a (step SC3). .

アイコン表示領域とアイコン配置領域とは、第1及び第2の実施形態において既説したものと同様の目的で設定されるものである。なお、ナビゲーション装置101に用意されているアイコン表示領域とアイコン配置領域の指定方法は、第2の実施形態で既説した第1の指定方法と第2の指定方法との2種類である。   The icon display area and the icon arrangement area are set for the same purpose as described in the first and second embodiments. Note that there are two types of icon display area and icon arrangement area designation methods prepared in the navigation device 101: the first designation method and the second designation method described in the second embodiment.

ステップSC3の処理においてCPU111は、上記の第1又は第2の指定方法による領域指定操作によってユーザにアイコン表示領域とアイコン配置領域とを指定させた後、指定されたアイコン表示領域とアイコン配置領域とを特定する領域データをプログラムメモリ26に記憶する。   In the process of step SC3, the CPU 111 causes the user to designate the icon display area and the icon arrangement area by the area designation operation according to the first or second designation method, and then designates the designated icon display area and the icon arrangement area. Is stored in the program memory 26.

図12(a)は、ステップSC3の処理に際し、ユーザによって第2の指定方法による領域指定操作が行われたときCPU111が設定するアイコン表示領域Aとアイコン配置領域Bとの一例を示した図である。すなわちアイコン表示領域Aとアイコン配置領域Bとが互いに離間する領域である場合の例を示した図である。   FIG. 12A is a diagram showing an example of the icon display area A and the icon arrangement area B set by the CPU 111 when the user performs an area specifying operation by the second specifying method in the process of step SC3. is there. That is, it is a diagram illustrating an example in which the icon display area A and the icon arrangement area B are areas that are separated from each other.

CPU18は、アイコン表示領域とアイコン配置領域とを設定した後、いったんステップSC1の処理に戻り、前述した処理を繰り返す。なお、ステップSC1の処理に際してCPU111は、測位データにより示される現在位置が変化した場合にのみ液晶モニタ103に表示する周辺地図を更新する。   After setting the icon display area and the icon arrangement area, the CPU 18 returns to the process of step SC1 and repeats the process described above. In the process of step SC1, the CPU 111 updates the surrounding map displayed on the liquid crystal monitor 103 only when the current position indicated by the positioning data changes.

一方、液晶モニタ103に周辺地図を表示させている間、CPU111は、ユーザによる領域設定要求がなければ(ステップSC3:NO)、引き続き、ユーザによる候補地の検索要求の有無を確認する(ステップSC4)。ここで、候補地の検索要求は、現在地の周辺において目的地の候補となる候補地を検索することの要求である。また、ユーザによる候補地の検索要求は、表示画面103aに対する予め決められたタッチ操作、例えば同一箇所を続けて2回タッチする操作により行われる。   On the other hand, while the peripheral map is being displayed on the liquid crystal monitor 103, the CPU 111 continues to check whether or not there is a request for searching for a candidate site by the user (step SC4) if there is no area setting request by the user (step SC3: NO). ). Here, the candidate location search request is a request to search for candidate locations that are candidates for the destination around the current location. In addition, the search request for the candidate site by the user is performed by a predetermined touch operation on the display screen 103a, for example, an operation of touching the same portion twice in succession.

ユーザから候補地の検索要求があった場合(ステップSC4:YES)、CPU111は、検索すべき場所の種類(又はカテゴリー)を決定する(ステップSC5)。ステップSC5の処理に際してCPU111は、例えば検索すべき場所の種類(又はカテゴリー)一覧形式で提示する選択メニューを液晶モニタ103に表示させ、ユーザによりタッチ操作によって選択された種類(又はカテゴリー)の場所を検索対象として決定する。   If there is a candidate location search request from the user (step SC4: YES), the CPU 111 determines the type (or category) of the location to be searched (step SC5). In the process of step SC5, the CPU 111 displays, for example, a selection menu to be presented in the form (or category) list format of the place to be searched for on the liquid crystal monitor 103, and the type (or category) selected by the touch operation by the user. Determine as search target.

引き続き、CPU111は、表示中の周辺地図における検索対象の場所を候補地として検索し、検索した1又は複数の候補地の地図上での位置を取得する(ステップSC6)。   Subsequently, the CPU 111 searches for the location to be searched on the displayed peripheral map as a candidate location, and acquires the position of the searched one or more candidate locations on the map (step SC6).

次に、CPU111は、ステップSC6の処理で検索した候補地を示す操作枠F101,F102,F103(図12(b)参照)を、表示中の地図に重ねて液晶モニタ3に表示させる(ステップSC7)。操作枠の具体的な表示方法はOSD表示等である。   Next, the CPU 111 displays operation frames F101, F102, and F103 (see FIG. 12B) indicating the candidate locations searched in the process of step SC6 on the liquid crystal monitor 3 so as to overlap the displayed map (step SC7). ). A specific method for displaying the operation frame is OSD display or the like.

その後、CPU111は、液晶モニタ103の表示画面103aの前述したアイコン利用領域Aに表示したいずれかの操作枠が存在するか否かを確認する(ステップSC8)。ステップSC8の処理においてCPU18は、表示中の操作枠のうちに、その全てがアイコン利用領域Aに位置する操作枠が存在するとき、アイコン利用領域Aに操作枠が存在するものと判断する。   Thereafter, the CPU 111 confirms whether any one of the operation frames displayed in the icon use area A described above on the display screen 103a of the liquid crystal monitor 103 exists (step SC8). In the process of step SC8, the CPU 18 determines that there is an operation frame in the icon usage area A when all of the displayed operation frames are in the icon usage area A.

操作枠がアイコン利用領域Aに存在しない場合(ステップSC8:NO)、CPU111は、表示画面103aに対するユーザのタッチ操作の有無、及びタッチ位置の演算を行い、ユーザによって表示中の操作枠のいずれかに対してタッチ操作が行われたか否かを確認する(ステップSC9)。ここで、操作枠に対するタッチ操作とは、操作枠により囲まれた領域をタッチする操作である。   When the operation frame does not exist in the icon use area A (step SC8: NO), the CPU 111 calculates the presence / absence of the user's touch operation on the display screen 103a and the touch position, and any of the operation frames being displayed by the user. Whether or not a touch operation has been performed is confirmed (step SC9). Here, the touch operation on the operation frame is an operation of touching an area surrounded by the operation frame.

操作枠のタッチ操作が確認できなかった場合(ステップSC9:NO)、CPU111は直ちにステップSC1の処理に戻り、前述した処理を繰り返す。   When the touch operation on the operation frame cannot be confirmed (step SC9: NO), the CPU 111 immediately returns to the process of step SC1 and repeats the above-described process.

また、いずれかの操作枠のタッチ操作が確認できた場合(ステップSC9:YES)、CPU111は、タッチ操作があった操作枠により示されている候補地、つまりユーザによって選択された候補地を目的地として設定する(ステップSC10)。しかる後、CPU111は、設定した目的地へユーザを案内するためのナビゲーション処理を行う(ステップSC15)。   Further, when the touch operation on any one of the operation frames can be confirmed (step SC9: YES), the CPU 111 aims at the candidate site indicated by the operation frame where the touch operation has been performed, that is, the candidate site selected by the user. Set as ground (step SC10). Thereafter, the CPU 111 performs a navigation process for guiding the user to the set destination (step SC15).

一方、ステップSC6の処理で検索した候補地を示す操作枠のいずれかがアイコン利用領域Aに存在する場合(ステップSC8:YES)、CPU111は、アイコン利用領域Aに存在する1又は複数の操作枠について、当該操作枠の選択操作(指示)に使用される選択操作用アイコンのアイコン配置領域Bにおける表示位置を決定する(ステップSC11)。   On the other hand, when any of the operation frames indicating the candidate sites searched in the process of step SC6 is present in the icon usage area A (step SC8: YES), the CPU 111 determines one or more operation frames present in the icon usage area A. In step SC11, the display position in the icon arrangement area B of the selection operation icon used for the selection operation (instruction) of the operation frame is determined.

ステップSC11の処理に際してCPU111は、選択操作用アイコンの表示位置として、選択操作用アイコンが対応する被写体の画像内(表示画面103a内)での位置に応じた位置を予め決められた規則に従い決定する。本実施形態においてCPU111は、選択操作用アイコンの上下位置方向の位置を、対応する操作枠により近い位置とすることを基本とし、アイコン配置領域Bに存在する他の操作枠と重ならない位置で、かつ他の選択操作用アイコンと重ならない位置(選択操作用アイコンが複数である場合のみ)とする。   In the process of step SC11, the CPU 111 determines, as a display position of the selection operation icon, a position corresponding to the position in the image of the subject corresponding to the selection operation icon (in the display screen 103a) according to a predetermined rule. . In the present embodiment, the CPU 111 basically sets the position of the selection operation icon in the vertical position direction to a position closer to the corresponding operation frame, and does not overlap with other operation frames existing in the icon arrangement area B. The position does not overlap with other selection operation icons (only when there are a plurality of selection operation icons).

しかる後、CPU111は、液晶モニタ103に選択操作用アイコンを、操作枠との対応関係を明示する表示形態で表示させるとともに、選択操作用アイコンの表示位置をステップSC11の処理で決定した位置に制御する(ステップSC12)。   After that, the CPU 111 causes the liquid crystal monitor 103 to display the selection operation icon in a display form that clearly shows the correspondence with the operation frame, and controls the display position of the selection operation icon to the position determined in the process of step SC11. (Step SC12).

図12(b)は、ステップSC12の処理直後における液晶モニタ103の表示画面103aの状態を示した図である。すなわち図12(b)は、ステップSC12の処理において、アイコン利用領域Aに存在する操作枠F101,F102に対応する選択操作用アイコンI1,I2がアイコン配置領域Bに表示された状態を示した図である。   FIG. 12B is a diagram showing the state of the display screen 103a of the liquid crystal monitor 103 immediately after the process of step SC12. That is, FIG. 12B shows a state in which the selection operation icons I1 and I2 corresponding to the operation frames F101 and F102 existing in the icon use area A are displayed in the icon arrangement area B in the process of step SC12. It is.

図12(b)に示したように、ステップSC12の処理に際してCPU111は、選択操作用アイコンI1,I2と、各々が対応する操作枠F101,F102とを連結する連結線ホ、ヘを液晶モニタ103に表示させることによって、選択操作用アイコンI1,I2と操作枠F101,F102との対応関係を明示する。なお、表示画面103aにおける、選択操作用アイコンI1,I2、及び連結線ハ、ニの表示方法は、操作枠F101,F102と同様にOSD表示等である。   As shown in FIG. 12B, in the process of step SC12, the CPU 111 displays the connection lines E and F connecting the selection operation icons I1 and I2 and the corresponding operation frames F101 and F102, respectively, on the liquid crystal monitor 103. Is displayed, the correspondence between the selection operation icons I1 and I2 and the operation frames F101 and F102 is clearly shown. Note that the display method of the selection operation icons I1 and I2 and the connection lines C and D on the display screen 103a is OSD display or the like, similar to the operation frames F101 and F102.

そして、選択操作用アイコンの表示後、CPU111は、表示画面103aに対するユーザのタッチ操作の有無、及びタッチ位置の演算を行い、ユーザによりいずれかの選択操作用アイコンに対してタッチ操作が行われたか否かを確認する(ステップSC13)。   After the selection operation icon is displayed, the CPU 111 calculates the presence / absence of the user's touch operation on the display screen 103a and the touch position, and has the user performed a touch operation on any of the selection operation icons? It is confirmed whether or not (step SC13).

選択操作用アイコンのタッチ操作が確認できなかった場合(ステップSC13:NO)、CPU111は、前述したステップSC9の処理へ移行する。   When the touch operation of the selection operation icon cannot be confirmed (step SC13: NO), the CPU 111 proceeds to the process of step SC9 described above.

また、いずれかの選択操作用アイコンのタッチ操作が確認できた場合(ステップSC13:YES)、CPU111は、タッチ操作があった選択操作用アイコンが対応する操作枠により示されている候補地、つまりユーザによって選択された候補地を目的地として設定する(ステップSC14)。しかる後、CPU111は、設定した目的地へユーザを案内するためのナビゲーション処理を行う(ステップSC15)。   If the touch operation of any of the selection operation icons has been confirmed (step SC13: YES), the CPU 111 indicates the candidate location indicated by the operation frame corresponding to the selection operation icon that has been touched, that is, The candidate location selected by the user is set as the destination (step SC14). Thereafter, the CPU 111 performs a navigation process for guiding the user to the set destination (step SC15).

以上のように、本実施形態においては、ユーザが場所検索機能を用いて目的地を指定する際には、現在地の周辺にある所望する種類(又はカテゴリー)の場所が選択候補として検索され、ユーザは、検索された選択候補(候補地)を示す操作枠のいずれかをタッチすることにより、所望の場所を目的地として選択することができる。   As described above, in this embodiment, when a user designates a destination using the location search function, a desired type (or category) location around the current location is searched as a selection candidate, and the user The user can select a desired location as a destination by touching any of the operation frames indicating the selected selection candidates (candidate locations).

その際、ユーザは、例えば図12(a)に示した表示画面103a内のアイコン利用領域Aに位置する操作枠F101,F102については、アイコン配置領域Bに表示された選択操作用アイコンI1,I2をタッチすることにより、それらを選択することができる。   At this time, for example, for the operation frames F101 and F102 located in the icon use area A in the display screen 103a shown in FIG. 12A, the user selects the selection operation icons I1 and I2 displayed in the icon arrangement area B. They can be selected by touching.

ここで、本実施形態においても、ユーザがアイコン利用領域Aとアイコン配置領域Bとを必要に応じて設定することができる。したがって、ユーザは自己の使い勝手に応じてアイコン利用領域Aとアイコン配置領域Bとを設定することにより、表示画面103a内の全ての操作枠を容易に、かつ迅速に選択することができる。   Here, also in this embodiment, the user can set the icon use area A and the icon arrangement area B as necessary. Therefore, the user can easily and quickly select all the operation frames in the display screen 103a by setting the icon use area A and the icon arrangement area B according to his / her convenience.

つまり、表示画面103aに存在する選択対象のオブジェクトが、目的地の選択候補(候補地)を示す操作枠である場合において、操作枠の選択に使用される選択操作用アイコンを、操作枠とは異なる位置に表示させることによって、タッチパネルを用いて表示画面103a内の任意の操作枠を選択する際の作業性を向上させることができる。   That is, when the object to be selected present on the display screen 103a is an operation frame indicating a destination selection candidate (candidate place), the selection operation icon used for selecting the operation frame is the operation frame. By displaying at different positions, it is possible to improve workability when selecting an arbitrary operation frame in the display screen 103a using the touch panel.

しかも、アイコン利用領域Aとアイコン配置領域Bとをユーザが自由に設定できるようにしたことから、ユーザが表示画面3a内の操作枠を選択する際の作業性をより一層向上させることができる。   In addition, since the user can freely set the icon use area A and the icon arrangement area B, the workability when the user selects the operation frame in the display screen 3a can be further improved.

また、本実施形態においては、表示画面103aに存在する選択候補のオブジェクトが、目的地の選択候補(候補地)を示す操作枠であること以外については、本発明に関する部分の構成が第2の実施形態と同様である。したがって、本実施形態における上述した以外の効果については第1の実施形態と同様であるため、説明を省略する。   Further, in the present embodiment, the configuration of the portion related to the present invention is the second configuration except that the selection candidate object existing on the display screen 103a is an operation frame indicating a destination selection candidate (candidate location). This is the same as the embodiment. Therefore, since effects other than those described above in the present embodiment are the same as those in the first embodiment, description thereof will be omitted.

ここで、第1〜第3の実施形態においては、本発明をデジタルカメラやナビゲーション装置に適用した場合について説明した。しかし、本発明はタッチパネルとして機能する表示画面を備えた装置であれば他の装置に適用することができる。他の装置のとしては、例えば近年普及しつつある電子書籍の閲覧に使用される電子書籍リーダー(専用端末、又は汎用の装置)がある。特に、他の装置が使用時に両手で保持するような装置や、タッチパネルとして機能する表示画面の面積が大きい装置である場合においては、前述した効果として、より顕著な効果を得ることができる。   Here, in the first to third embodiments, the case where the present invention is applied to a digital camera or a navigation device has been described. However, the present invention can be applied to other devices as long as the device includes a display screen that functions as a touch panel. As another device, for example, there is an electronic book reader (a dedicated terminal or a general-purpose device) used for browsing electronic books, which has become widespread in recent years. In particular, in the case where the other device is a device that is held with both hands during use or a device that has a large display screen area that functions as a touch panel, a more remarkable effect can be obtained as the effect described above.

また、第1〜第3の実施形態において説明した選択操作用アイコンの表示条件や、アイコン配置領域Bにおける表示位置の決定方法、表示形態については必要に応じて適宜変更することができる。   Further, the display conditions of the selection operation icons described in the first to third embodiments, the method for determining the display position in the icon arrangement area B, and the display form can be changed as appropriate.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は本発明の作用効果が得られる範囲内であれば適宜変更が可能であり、変更後の実施形態も特許請求の範囲に記載された発明、及びその発明と均等の発明の範囲に含まれる。以下に、本出願の特許請求の範囲に記載された発明を付記する。
[請求項1]
タッチパネルとして機能する表示画面を有する表示手段と、前記表示手段に、前記表示画面に表示されるオブジェクトの指示に使用される当該オブジェクトと一対一の関係を有するアイコンを表示させるとともに、当該アイコンの表示位置を、予め決められているアイコン配置領域内における、対応するオブジェクトとは異なる位置に制御する表示制御手段とを備えたことを特徴とする電子機器。
[請求項2]
前記表示制御手段は、前記表示画面における前記オブジェクトの位置が予め決められているアイコン利用領域内であることを条件として、前記表示手段に前記アイコンを表示させることを特徴とする請求項1記載の電子機器。
[請求項3]
前記アイコン配置領域は、前記表示画面の周縁部に位置する領域であることを特徴とする請求項1又は2記載の電子機器。
[請求項4]
前記アイコン利用領域内における前記アイコンの表示位置を、前記表示画面における前記オブジェクトの位置に応じて決定する決定手段を備え、前記表示制御手段は、前記アイコン利用領域内における前記アイコンの表示位置を前記決定手段により決定された表示位置に制御することを特徴とする請求項1又は2,3記載の電子機器。
[請求項5]
前記決定手段は、前記表示画面に表示されるオブジェクトが複数存在する場合、複数のアイコンの各々の表示位置として、他のアイコンとの関係を考慮した位置を決定することを特徴とする請求項4記載の電子機器。
[請求項6]
前記表示制御手段は、前記アイコンを、前記アイコンが対応するオブジェクトとの対応関係を明示する表示形態で前記表示手段に表示させることを特徴とする請求項1乃至5いずれか記載の電子機器。
[請求項7]
前記表示画面におけるアイコン配置領域を、使用者による前記表示画面に対する領域指定操作により指定された領域に設定する領域設定手段をさらに備え、前記表示制御手段は、前記アイコンの表示位置を、前記領域設定手段により設定されたアイコン配置領域内における、対応するオブジェクトとは異なる位置に制御することを特徴とする請求項1乃至6いずれか記載の電子機器。
[請求項8]
被写体を撮像する撮像手段と、前記撮像手段によって取得された画像から前記オブジェクトを検出する検出手段とをさらに備え、前記表示手段は、前記撮像手段によって取得された画像を表示し、前記表示制御手段は、前記表示手段に、前記表示画面に表示中の画像から前記検出手段により検出されたオブジェクトの指示に使用されるアイコンを表示させることを特徴とする請求項1乃至7いずれか記載の電子機器。
[請求項9]
前記撮像手段による撮影画像の取得に向けた撮影準備に際し、前記アイコンのタッチ操作により使用者によって指示された特定のオブジェクトを主要被写体として設定する設定手段をさらに備えたことを特徴とする請求項8記載の電子機器。
[請求項10]
タッチパネルとして機能する表示画面に、当該表示画面に表示中のオブジェクトの指示に使用される当該オブジェクトと一対一の関係を有するアイコンを表示させるとともに、当該アイコンの表示位置を、予め決められているアイコン配置領域内における、対応するオブジェクトとは異なる位置に制御することを特徴とするアイコン表示方法。
[請求項11]
コンピュータに、タッチパネルとして機能する表示画面を有する表示手段に、前記表示画面に表示されるオブジェクトの指示に使用される当該オブジェクトと一対一の関係を有するアイコンを表示させるとともに、当該アイコンの表示位置を、予め決められているアイコン配置領域内における、対応するオブジェクトとは異なる位置に制御する処理を実行させることを特徴とするプログラム。
Although several embodiments of the present invention have been described above, these embodiments can be modified as appropriate as long as the effects of the present invention are obtained, and the embodiments after the modification are also claimed. And the invention equivalent to that invention are included in the scope of the invention. The invention described in the claims of the present application will be added below.
[Claim 1]
Display means having a display screen functioning as a touch panel, and causing the display means to display an icon having a one-to-one relationship with the object used to instruct the object displayed on the display screen, and displaying the icon An electronic apparatus comprising: display control means for controlling a position to a position different from a corresponding object in a predetermined icon arrangement region.
[Claim 2]
The display control means causes the display means to display the icon on condition that the position of the object on the display screen is within a predetermined icon use area. Electronics.
[Claim 3]
The electronic device according to claim 1, wherein the icon arrangement area is an area located at a peripheral edge of the display screen.
[Claim 4]
A determining unit configured to determine a display position of the icon in the icon use area according to a position of the object on the display screen; and the display control unit determines the display position of the icon in the icon use area. 4. The electronic apparatus according to claim 1, wherein the electronic device is controlled to a display position determined by the determining means.
[Claim 5]
5. The determination unit according to claim 4, wherein when there are a plurality of objects displayed on the display screen, the determination unit determines a position in consideration of a relationship with another icon as a display position of each of the plurality of icons. The electronic device described.
[Claim 6]
6. The electronic apparatus according to claim 1, wherein the display control unit causes the display unit to display the icon in a display form that clearly shows a correspondence relationship with the object to which the icon corresponds.
[Claim 7]
The apparatus further comprises area setting means for setting an icon arrangement area on the display screen to an area designated by an area designation operation on the display screen by a user, wherein the display control means sets the display position of the icon to the area setting. 7. The electronic apparatus according to claim 1, wherein the electronic device is controlled to a position different from the corresponding object in the icon arrangement area set by the means.
[Claim 8]
The image display device further includes an image pickup unit that picks up an image of the subject, and a detection unit that detects the object from the image acquired by the image pickup unit. The display unit displays the image acquired by the image pickup unit, and the display control unit. 8. The electronic device according to claim 1, wherein the display unit displays an icon used to indicate an object detected by the detection unit from an image being displayed on the display screen. 9. .
[Claim 9]
9. The apparatus according to claim 8, further comprising: a setting unit configured to set a specific object designated by a user by a touch operation of the icon as a main subject when preparing for shooting for obtaining a shot image by the imaging unit. The electronic device described.
[Claim 10]
An icon having a one-to-one relationship with the object used to instruct the object being displayed on the display screen is displayed on the display screen functioning as a touch panel, and the display position of the icon is a predetermined icon. An icon display method, wherein control is performed at a position different from a corresponding object in an arrangement area.
[Claim 11]
On a display means having a display screen functioning as a touch panel on a computer, an icon having a one-to-one relationship with the object used to instruct the object displayed on the display screen is displayed, and the display position of the icon is A program for executing a process of controlling a position different from a corresponding object in a predetermined icon arrangement area.

1 デジタルカメラ
3 液晶モニタ
3a 表示画面
13 撮像素子
18 CPU
21 カラー液晶表示パネル
22 タッチセンサ
26 プログラムメモリ
101 ナビゲーション装置
103 液晶モニタ
103a 表示画面
111 CPU
112 GPSモジュール
121 カラー液晶表示パネル
122 タッチセンサ
A アイコン利用領域
B アイコン配置領域
G1〜G3 被写体
G11〜G14 顔
I1,I2 選択操作用アイコン
F101,F102 操作枠
1 Digital Camera 3 LCD Monitor 3a Display Screen 13 Image Sensor 18 CPU
21 color liquid crystal display panel 22 touch sensor 26 program memory 101 navigation device 103 liquid crystal monitor 103a display screen 111 CPU
112 GPS module 121 Color liquid crystal display panel 122 Touch sensor A Icon use area B Icon arrangement area G1 to G3 Subject G11 to G14 Face I1, I2 Selection operation icons F101, F102 Operation frame

Claims (11)

タッチパネルとして機能する表示画面を有する表示手段と、
前記表示手段に、前記表示画面に表示されるオブジェクトの指示に使用される当該オブジェクトと一対一の関係を有するアイコンを表示させるとともに、当該アイコンの表示位置を、予め決められているアイコン配置領域内における、対応するオブジェクトとは異なる位置に制御する表示制御手段と
を備えたことを特徴とする電子機器。
Display means having a display screen functioning as a touch panel;
The display means displays an icon having a one-to-one relationship with the object used to indicate the object displayed on the display screen, and the display position of the icon is within a predetermined icon arrangement area. An electronic apparatus comprising: display control means for controlling to a position different from the corresponding object.
前記表示制御手段は、前記表示画面における前記オブジェクトの位置が予め決められているアイコン利用領域内であることを条件として、前記表示手段に前記アイコンを表示させることを特徴とする請求項1記載の電子機器。   The display control means causes the display means to display the icon on condition that the position of the object on the display screen is within a predetermined icon use area. Electronics. 前記アイコン配置領域は、前記表示画面の周縁部に位置する領域であることを特徴とする請求項1又は2記載の電子機器。   The electronic device according to claim 1, wherein the icon arrangement area is an area located at a peripheral edge of the display screen. 前記アイコン利用領域内における前記アイコンの表示位置を、前記表示画面における前記オブジェクトの位置に応じて決定する決定手段を備え、
前記表示制御手段は、前記アイコン利用領域内における前記アイコンの表示位置を前記決定手段により決定された表示位置に制御する
ことを特徴とする請求項1又は2,3記載の電子機器。
The display position of the icon in the icon utilization region, comprising a determining means for determining in accordance with the position of the object on the display screen,
The electronic device according to claim 1, wherein the display control unit controls the display position of the icon in the icon use area to the display position determined by the determination unit.
前記決定手段は、前記表示画面に表示されるオブジェクトが複数存在する場合、複数のアイコンの各々の表示位置として、他のアイコンとの関係を考慮した位置を決定することを特徴とする請求項4記載の電子機器。   5. The determination unit according to claim 4, wherein when there are a plurality of objects displayed on the display screen, the determination unit determines a position in consideration of a relationship with another icon as a display position of each of the plurality of icons. The electronic device described. 前記表示制御手段は、前記アイコンを、前記アイコンが対応するオブジェクトとの対応関係を明示する表示形態で前記表示手段に表示させることを特徴とする請求項1乃至5いずれか記載の電子機器。   6. The electronic apparatus according to claim 1, wherein the display control unit causes the display unit to display the icon in a display form that clearly shows a correspondence relationship with the object to which the icon corresponds. 前記表示画面におけるアイコン配置領域を、使用者による前記表示画面に対する領域指定操作により指定された領域に設定する領域設定手段をさらに備え、
前記表示制御手段は、前記アイコンの表示位置を、前記領域設定手段により設定されたアイコン配置領域内における、対応するオブジェクトとは異なる位置に制御する
ことを特徴とする請求項1乃至6いずれか記載の電子機器。
An area setting means for setting an icon arrangement area on the display screen to an area specified by an area specifying operation on the display screen by a user;
The said display control means controls the display position of the said icon to the position different from the corresponding object in the icon arrangement | positioning area | region set by the said area | region setting means. Electronic equipment.
被写体を撮像する撮像手段と、
前記撮像手段によって取得された画像から前記オブジェクトを検出する検出手段と
をさらに備え、
前記表示手段は、前記撮像手段によって取得された画像を表示し、
前記表示制御手段は、前記表示手段に、前記表示画面に表示中の画像から前記検出手段により検出されたオブジェクトの指示に使用されるアイコンを表示させる
ことを特徴とする請求項1乃至7いずれか記載の電子機器。
Imaging means for imaging a subject;
Detecting means for detecting the object from the image acquired by the imaging means; and
The display means displays an image acquired by the imaging means,
The display control means causes the display means to display an icon used to indicate an object detected by the detection means from an image being displayed on the display screen. The electronic device described.
前記撮像手段による撮影画像の取得に向けた撮影準備に際し、前記アイコンのタッチ操作により使用者によって指示された特定のオブジェクトを主要被写体として設定する設定手段をさらに備えたことを特徴とする請求項8記載の電子機器。   9. The apparatus according to claim 8, further comprising: a setting unit configured to set a specific object designated by a user by a touch operation of the icon as a main subject when preparing for shooting for obtaining a shot image by the imaging unit. The electronic device described. タッチパネルとして機能する表示画面に、当該表示画面に表示中のオブジェクトの指示に使用される当該オブジェクトと一対一の関係を有するアイコンを表示させるとともに、当該アイコンの表示位置を、予め決められているアイコン配置領域内における、対応するオブジェクトとは異なる位置に制御することを特徴とするアイコン表示方法。   An icon having a one-to-one relationship with the object used to instruct the object being displayed on the display screen is displayed on the display screen functioning as a touch panel, and the display position of the icon is a predetermined icon. An icon display method, wherein control is performed at a position different from a corresponding object in an arrangement area. コンピュータに、タッチパネルとして機能する表示画面を有する表示手段に、前記表示画面に表示されるオブジェクトの指示に使用される当該オブジェクトと一対一の関係を有するアイコンを表示させるとともに、当該アイコンの表示位置を、予め決められているアイコン配置領域内における、対応するオブジェクトとは異なる位置に制御する処理を実行させることを特徴とするプログラム。   On a display means having a display screen functioning as a touch panel on a computer, an icon having a one-to-one relationship with the object used to instruct the object displayed on the display screen is displayed, and the display position of the icon is A program for executing a process of controlling a position different from a corresponding object in a predetermined icon arrangement area.
JP2011097519A 2011-04-25 2011-04-25 Electronic device, icon display method, program Expired - Fee Related JP5853406B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011097519A JP5853406B2 (en) 2011-04-25 2011-04-25 Electronic device, icon display method, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011097519A JP5853406B2 (en) 2011-04-25 2011-04-25 Electronic device, icon display method, program

Publications (2)

Publication Number Publication Date
JP2012230498A true JP2012230498A (en) 2012-11-22
JP5853406B2 JP5853406B2 (en) 2016-02-09

Family

ID=47432005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011097519A Expired - Fee Related JP5853406B2 (en) 2011-04-25 2011-04-25 Electronic device, icon display method, program

Country Status (1)

Country Link
JP (1) JP5853406B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022119826A (en) * 2018-11-29 2022-08-17 マクセル株式会社 Video display device and method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007052795A (en) * 2006-08-21 2007-03-01 Fujifilm Holdings Corp Operation device of apparatus provided with screen display part, and digital camera
JP2007179502A (en) * 2005-12-28 2007-07-12 Sharp Corp Information processor
WO2008072374A1 (en) * 2006-12-11 2008-06-19 Nikon Corporation Electronic camera
JP2009129449A (en) * 2007-11-19 2009-06-11 Palo Alto Research Center Inc Improvement in link target accuracy in touch-screen mobile device by layout adjustment
JP2010124120A (en) * 2008-11-18 2010-06-03 Fujinon Corp Autofocus system
JP2010160564A (en) * 2009-01-06 2010-07-22 Toshiba Corp Portable terminal
JP2010182023A (en) * 2009-02-04 2010-08-19 Fujifilm Corp Portable equipment and operation control method
JP2010187145A (en) * 2009-02-12 2010-08-26 Sony Corp Image processing apparatus and method, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007179502A (en) * 2005-12-28 2007-07-12 Sharp Corp Information processor
JP2007052795A (en) * 2006-08-21 2007-03-01 Fujifilm Holdings Corp Operation device of apparatus provided with screen display part, and digital camera
WO2008072374A1 (en) * 2006-12-11 2008-06-19 Nikon Corporation Electronic camera
JP2009129449A (en) * 2007-11-19 2009-06-11 Palo Alto Research Center Inc Improvement in link target accuracy in touch-screen mobile device by layout adjustment
JP2010124120A (en) * 2008-11-18 2010-06-03 Fujinon Corp Autofocus system
JP2010160564A (en) * 2009-01-06 2010-07-22 Toshiba Corp Portable terminal
JP2010182023A (en) * 2009-02-04 2010-08-19 Fujifilm Corp Portable equipment and operation control method
JP2010187145A (en) * 2009-02-12 2010-08-26 Sony Corp Image processing apparatus and method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022119826A (en) * 2018-11-29 2022-08-17 マクセル株式会社 Video display device and method
JP7364740B2 (en) 2018-11-29 2023-10-18 マクセル株式会社 Video display device

Also Published As

Publication number Publication date
JP5853406B2 (en) 2016-02-09

Similar Documents

Publication Publication Date Title
JP5652652B2 (en) Display control apparatus and method
US9204051B2 (en) Image pickup apparatus, image pickup method, and non-transitory computer-readable medium
JP4510713B2 (en) Digital camera
US9900525B2 (en) Image processing device, imaging device, image processing method, and image processing program generating a split image
US9721346B2 (en) Image assessment device, method, and computer readable medium for 3-dimensional measuring and capturing of image pair range
WO2016038976A1 (en) Multi-imaging apparatus, multi-imaging method, program, and recording medium
US20060044285A1 (en) Replay apparatus and replay method
JP6833506B2 (en) Imaging device and its control method
BRPI1105569A2 (en) display control apparatus, display control method, and, computer readable storage device
KR20130054748A (en) Digital photographing apparatus and controlling method thereof
JP2009222921A (en) Image display device, photographing device and image display method
EP2843628A1 (en) Image processing device, image processing method, and recording medium
JP2014146989A (en) Image pickup device, image pickup method, and image pickup program
JP5853406B2 (en) Electronic device, icon display method, program
JP6128967B2 (en) Display control apparatus and control method thereof
JP5880459B2 (en) Electronic device, display control method and program
JP5911300B2 (en) Imaging apparatus and control method thereof
JP2010191878A (en) Image processing apparatus and image processing method
JP6728024B2 (en) Display control device, display control method, and program
JP5181935B2 (en) Image processing apparatus, program, and subject detection method
JP2011170491A (en) Location name retrieval device, location name search method and electronic apparatus
EP2605504A2 (en) Method and apparatus for reproducing image, and computer-readable storage medium
JP2008236011A (en) Photography device
JP5562208B2 (en) Imaging apparatus and control method thereof
JP6210821B2 (en) Video recording apparatus, control method therefor, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140320

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150326

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150821

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151123

R150 Certificate of patent or registration of utility model

Ref document number: 5853406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees