JP2020021174A - Electronic device, control method thereof, and program thereof - Google Patents

Electronic device, control method thereof, and program thereof Download PDF

Info

Publication number
JP2020021174A
JP2020021174A JP2018142904A JP2018142904A JP2020021174A JP 2020021174 A JP2020021174 A JP 2020021174A JP 2018142904 A JP2018142904 A JP 2018142904A JP 2018142904 A JP2018142904 A JP 2018142904A JP 2020021174 A JP2020021174 A JP 2020021174A
Authority
JP
Japan
Prior art keywords
face
touch
electronic device
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018142904A
Other languages
Japanese (ja)
Inventor
渡邊 等
Hitoshi Watanabe
等 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018142904A priority Critical patent/JP2020021174A/en
Publication of JP2020021174A publication Critical patent/JP2020021174A/en
Pending legal-status Critical Current

Links

Images

Abstract

To solve the problem in which: it is difficult for a user to select a face or a pupil accurately through a touch operation when the size of a subject shown on a screen is small.SOLUTION: An electronic device includes: detection means for detecting a face and an organ region included in the face from an image displayed on a display unit; touch sensing means for sensing a touch operation on a linear operation unit having a first operation area and a second operation area, which is a member different from the display unit; selection means for selecting the face detected by the detection means from the image displayed by display means; and control means for performing the control to select a first organ area included in the first face selected by the selection means in response to a touch operation on the first operation area and to select a second organ region included in the first face selected by the selection means in response to a touch operation on the second operation area.SELECTED DRAWING: Figure 6

Description

本発明は顔や顔の器官を検出可能な電子機器に関する。   The present invention relates to an electronic device capable of detecting a face and a facial organ.

近年、被写体の顔を検出して合焦するオートフォーカス(AF)機能を有するデジタルカメラが知られている。さらに、被写体の顔を検出するだけでなく、顔の器官(例えば瞳など)検出し、その器官へAFできるデジタルカメラが知られている。   2. Description of the Related Art In recent years, a digital camera having an autofocus (AF) function of detecting a subject's face and focusing on the subject has been known. Further, there is known a digital camera which can not only detect a face of a subject but also detect an organ (for example, a pupil) of the face and perform AF on the organ.

例えば特許文献1では、ユーザーがタッチ操作した画面上の位置に応じて検出した顔にAFするか検出した瞳にAFするかを選択する技術が開示されている。   For example, Patent Literature 1 discloses a technique for selecting whether to perform AF on a detected face or AF on a detected pupil according to a position on a screen where a user performs a touch operation.

特開2013−70164号公報JP 2013-70164 A

しかし例えば瞳のように画面上に映る被写体の大きさが小さい場合、ユーザーは顔や瞳をタッチ操作をすることによって正確に選択することは難しいという課題があった。そこで、本発明は上記課題を解決するために、画面上に映る被写体の大きさが小さい場合でも、被写体の部位を容易に選択できるようにすることを目的とする。   However, for example, when the size of a subject reflected on the screen like a pupil is small, there is a problem that it is difficult for a user to select a face or a pupil accurately by performing a touch operation. In view of the above, an object of the present invention is to make it possible to easily select a portion of a subject even when the size of the subject reflected on a screen is small.

上記目的を達成するために、本発明の電子機器は、表示部に表示された画像から顔および該顔に含まれる器官領域を検出する検出手段と、前記表示部とは別の部材である、第一の操作領域と第二の操作領域とを有するライン状の操作部に対するタッチ操作を検知するタッチ検知手段と、表示手段によって表示された画像から前記検出手段によって検出された顔を選択する選択手段と、前記第一の操作領域に対するタッチ操作に応じて、前記選択手段によって選択された第一の顔に含まれる第一の器官領域を選択し、前記第二の操作領域に対するタッチ操作に応じて、前記選択手段によって選択された第一の顔に含まれる第二の器官領域を選択するように制御する制御手段と、を有することを特徴とする。   In order to achieve the above object, the electronic device of the present invention is a detection unit that detects a face and an organ region included in the face from an image displayed on a display unit, and the display unit is a separate member. Touch detection means for detecting a touch operation on a linear operation unit having a first operation area and a second operation area, and selection for selecting a face detected by the detection means from an image displayed by a display means Means for selecting a first organ area included in the first face selected by the selecting means in accordance with a touch operation on the first operation area, and responding to a touch operation on the second operation area. Control means for controlling so as to select a second organ region included in the first face selected by the selection means.

本発明によれば画面上に映る被写体の大きさが小さい場合でも、被写体の部位を容易に選択できる。   ADVANTAGE OF THE INVENTION According to this invention, even when the magnitude | size of the subject reflected on a screen is small, the site | part of a subject can be selected easily.

(a)本実施例におけるデジタルカメラ100の前面の外観図。(b)本実施例におけるデジタルカメラ100の背面の外観図。FIG. 1A is an external view of a front surface of a digital camera 100 according to an embodiment. (B) An external view of the back of the digital camera 100 in the present embodiment. 本実施例におけるデジタルカメラ100のブロック図。FIG. 2 is a block diagram of the digital camera 100 according to the embodiment. 本実施例におけるタッチバー82の詳細を示す図。FIG. 3 is a diagram illustrating details of a touch bar 82 according to the embodiment. 本実施例における顔と器官を検出した場合の枠表示の表示例を説明する図。FIG. 7 is a diagram for explaining a display example of a frame display when a face and an organ are detected in the embodiment. 本実施例におけるデジタルカメラ100が検出した顔や器官等を管理するためのデータの一例を示す図。FIG. 4 is a diagram illustrating an example of data for managing a face, an organ, and the like detected by the digital camera 100 according to the embodiment. 本実施例におけるデジタルカメラ100の動作の一例を示すフローチャート図。FIG. 4 is a flowchart illustrating an example of an operation of the digital camera 100 according to the embodiment. 本実施例におけるデジタルカメラ100の表示画面の一例およびタッチバー82を示す図。FIG. 3 is a diagram illustrating an example of a display screen of the digital camera 100 and a touch bar 82 according to the embodiment. 本実施例におけるデジタルカメラ100の表示画面の一例を示す図。FIG. 3 is a diagram illustrating an example of a display screen of the digital camera 100 according to the embodiment.

<実施例1>
以下、図面を参照して本発明の好適な実施形態の一例を説明する。
<Example 1>
Hereinafter, an example of a preferred embodiment of the present invention will be described with reference to the drawings.

<デジタルカメラ100の外観図>
図1(a),(b)に、本発明を適用可能な電子機器の一例としてのデジタルカメラ100の外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。
<External view of digital camera 100>
1A and 1B are external views of a digital camera 100 as an example of an electronic device to which the present invention can be applied. FIG. 1A is a front perspective view of the digital camera 100, and FIG. 1B is a rear perspective view of the digital camera 100.

表示部28は、デジタルカメラ100の背面に設けられた表示部であり、画像や各種情報を表示する。タッチパネル70aは、表示部28の表示面(タッチ操作面)に対するタッチ操作を検出することができる。ファインダー外表示部43は、デジタルカメラ100の上面に設けられた表示部であり、シャッター速度や絞りをはじめとするデジタルカメラ100の様々な設定値を表示する。シャッターボタン61は撮影指示を行うための操作部材である。モード切替スイッチ60は、各種モードを切り替えるための操作部材である。端子カバー40は、デジタルカメラ100を外部機器に接続する接続ケーブル等とのコネクタ(不図示)を保護するカバーである。   The display unit 28 is a display unit provided on the back of the digital camera 100, and displays images and various information. The touch panel 70a can detect a touch operation on the display surface (touch operation surface) of the display unit 28. The display unit 43 outside the finder is a display unit provided on the upper surface of the digital camera 100, and displays various setting values of the digital camera 100 such as a shutter speed and an aperture. The shutter button 61 is an operation member for giving a shooting instruction. The mode switch 60 is an operation member for switching between various modes. The terminal cover 40 is a cover that protects a connector (not shown) with a connection cable or the like that connects the digital camera 100 to an external device.

メイン電子ダイヤル71は回転操作部材であり、メイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72は、デジタルカメラ100の電源のONとOFFを切り替える操作部材である。サブ電子ダイヤル73は回転操作部材であり、サブ電子ダイヤル73を回すことで、選択枠(カーソル)の移動や画像送りなどが行える。4方向キー74は、上、下、左、右部分をそれぞれ押し込み可能に構成され、4方向キー74の押した部分に応じた処理が可能である。SETボタン75は、押しボタンであり、主に選択項目の決定などに用いられる。   The main electronic dial 71 is a rotary operation member, and by turning the main electronic dial 71, setting values such as a shutter speed and an aperture can be changed. The power switch 72 is an operation member for switching ON / OFF the power of the digital camera 100. The sub electronic dial 73 is a rotary operation member. By turning the sub electronic dial 73, a selection frame (cursor) can be moved, an image can be moved, and the like. The four-way key 74 is configured to be able to press the upper, lower, left, and right portions, respectively, and can perform processing corresponding to the pressed portion of the four-way key 74. The SET button 75 is a push button, and is mainly used to determine a selection item.

動画ボタン76は、動画撮影(記録)の開始や停止の指示に用いられる。AEロックボタン77は押しボタンであり、撮影待機状態でAEロックボタン77を押下することにより、露出状態を固定することができる。拡大ボタン78は、撮影モードのライブビュー表示(LV表示)において拡大モードのONとOFFを切り替えるための操作ボタンである。拡大モードをONとしてからメイン電子ダイヤル71を操作することにより、ライブビュー画像(LV画像)の拡大や縮小を行える。再生モードにおいては、拡大ボタン78は、再生画像を拡大したり、その拡大率を増加させるたりするための操作ボタンとして機能する。再生ボタン79は、撮影モードと再生モードとを切り替えるための操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに移行し、記録媒体200(後述)に記録された画像のうち最新の画像を表示部28に表示させることができる。メニューボタン81はメニュー画面を表示させる指示操作を行うために用いられる押しボタンであり、メニューボタン81が押されると各種の設定が可能なメニュー画面が表示部28に表示される。ユーザーは、表示部28に表示されたメニュー画面と、4方向キー74やSETボタン75とを用いて直感的に各種設定を行うことができる。   The moving image button 76 is used to start or stop moving image shooting (recording). The AE lock button 77 is a push button, and the exposure state can be fixed by pressing the AE lock button 77 in a shooting standby state. The enlargement button 78 is an operation button for switching ON and OFF of the enlargement mode in the live view display (LV display) of the shooting mode. By operating the main electronic dial 71 after turning on the enlargement mode, the live view image (LV image) can be enlarged or reduced. In the playback mode, the enlargement button 78 functions as an operation button for enlarging the playback image and increasing the enlargement ratio. The playback button 79 is an operation button for switching between a shooting mode and a playback mode. By pressing the play button 79 during the shooting mode, the mode is shifted to the play mode, and the latest image among the images recorded on the recording medium 200 (described later) can be displayed on the display unit 28. The menu button 81 is a push button used for performing an instruction operation for displaying a menu screen. When the menu button 81 is pressed, a menu screen on which various settings can be made is displayed on the display unit 28. The user can intuitively perform various settings using the menu screen displayed on the display unit 28, the four-way key 74, and the SET button 75.

タッチバー82(マルチファンクションバー:M−Fnバー)は、タッチ操作を受け付けることが可能なライン状のタッチ操作部材(ラインタッチセンサー)である。タッチバー82は、通常の握り方(メーカー推奨の握り方)でグリップ部90を握った右手の親指でタッチ操作可能(タッチ可能)な位置に配置されている。タッチバー82は、タッチバー82に対するタップ操作(タッチして所定期間以内に移動せずに離す操作)、左右へのスライド操作(タッチした後、タッチしたままタッチ位置を移動する操作)などを受け付け可能な受付部である。タッチバー82は、タッチパネル70aとは異なる操作部材であり、表示機能を備えていない。   The touch bar 82 (multifunction bar: M-Fn bar) is a linear touch operation member (line touch sensor) that can receive a touch operation. The touch bar 82 is disposed at a position where a touch operation can be performed (touchable) with a right thumb that grips the grip portion 90 with a normal gripping method (a gripping method recommended by a manufacturer). The touch bar 82 can receive a tap operation on the touch bar 82 (operation of releasing the touch bar without moving it within a predetermined period), a sliding operation to the left and right (operation of moving the touch position while touching after touching), and the like. It is a reception section. The touch bar 82 is an operation member different from the touch panel 70a, and does not have a display function.

通信端子10は、デジタルカメラ100がレンズユニット150(後述;着脱可能)側と通信を行うための通信端子である。接眼部16は、接眼ファインダー17(覗き込み型のファインダー)の接眼部であり、ユーザーは、接眼部16を介して内部のEVF29(後述)に表示された映像を視認することができる。接眼検知部57は、接眼部16にユーザー(撮影者)が接眼しているか否かを検知する接眼検知センサーである。蓋202は、記録媒体200(後述)を格納するスロットの蓋である。グリップ部90は、ユーザーがデジタルカメラ100を構える際に右手で握りやすい形状とした保持部である。グリップ部90を右手の小指、薬指、中指で握ってデジタルカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン61とメイン電子ダイヤル71が配置されている。また、同じ状態で、右手の親指で操作可能な位置に、サブ電子ダイヤル73とタッチバー82が配置されている。サムレスト部91(親指待機位置)は、デジタルカメラ100の背面側の、どの操作部材も操作しない状態でグリップ部90を握った右手の親指を置きやすい箇所に設けられたグリップ部材である。サムレスト部91は、保持力(グリップ感)を高めるためのラバー部材などで構成される。   The communication terminal 10 is a communication terminal for the digital camera 100 to communicate with the lens unit 150 (to be described later; detachable). The eyepiece section 16 is an eyepiece section of an eyepiece finder 17 (looking-in type finder), and a user can visually recognize an image displayed on an internal EVF 29 (described later) via the eyepiece section 16. . The eyepiece detection unit 57 is an eyepiece detection sensor that detects whether or not a user (photographer) is looking at the eyepiece unit 16. The lid 202 is a lid for a slot for storing the recording medium 200 (described later). The grip part 90 is a holding part that is shaped so that the user can easily hold it with the right hand when holding the digital camera 100. The shutter button 61 and the main electronic dial 71 are arranged at positions where the grip button 90 can be operated with the right index finger while holding the digital camera 100 while holding the grip portion 90 with the little finger, ring finger and middle finger of the right hand. In the same state, the sub electronic dial 73 and the touch bar 82 are arranged at positions operable with the right thumb. The thumb rest portion 91 (thumb standby position) is a grip member provided on the back side of the digital camera 100 at a position where the right thumb holding the grip portion 90 can be easily placed without operating any operation members. The thumb rest portion 91 is formed of a rubber member or the like for increasing a holding force (grip feeling).

<デジタルカメラ100の構成ブロック図>
図2は、デジタルカメラ100の構成例を示すブロック図である。レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。通信端子6は、レンズユニット150がデジタルカメラ100側と通信を行うための通信端子であり、通信端子10は、デジタルカメラ100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、これら通信端子6,10を介してシステム制御部50と通信する。そして、レンズユニット150は、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1の制御を行う。また、レンズユニット150は、レンズシステム制御回路4によってAF駆動回路3を介してレンズ103の位置を変位させることで焦点を合わせる。
<Configuration block diagram of digital camera 100>
FIG. 2 is a block diagram illustrating a configuration example of the digital camera 100. The lens unit 150 is a lens unit on which an interchangeable photographing lens is mounted. The lens 103 is usually composed of a plurality of lenses, but FIG. 2 simply shows only one lens. The communication terminal 6 is a communication terminal for the lens unit 150 to communicate with the digital camera 100 side, and the communication terminal 10 is a communication terminal for the digital camera 100 to communicate with the lens unit 150 side. The lens unit 150 communicates with the system control unit 50 via these communication terminals 6 and 10. The lens unit 150 controls the aperture 1 via the aperture driving circuit 2 by the internal lens system control circuit 4. The lens unit 150 focuses by displacing the position of the lens 103 via the AF driving circuit 3 by the lens system control circuit 4.

シャッター101は、システム制御部50の制御で撮像部22の露光時間を自由に制御できるフォーカルプレーンシャッターである。   The shutter 101 is a focal plane shutter that can freely control the exposure time of the imaging unit 22 under the control of the system control unit 50.

撮像部22は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。撮像部22は、システム制御部50にデフォーカス量情報を出力する撮像面位相差センサーを有していてもよい。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換する。   The imaging unit 22 is an imaging device configured by a CCD or a CMOS device that converts an optical image into an electric signal. The imaging unit 22 may include an imaging surface phase difference sensor that outputs defocus amount information to the system control unit 50. The A / D converter 23 converts an analog signal output from the imaging unit 22 into a digital signal.

画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の処理(画素補間、縮小といったリサイズ処理、色変換処理、等)を行う。また、画像処理部24は、撮像した画像データを用いて所定の演算処理を行い、システム制御部50は、画像処理部24により得られた演算結果に基づいて露光制御や測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理、等が行われる。画像処理部24は更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。   The image processing unit 24 performs predetermined processing (resize processing such as pixel interpolation and reduction, color conversion processing, and the like) on the data from the A / D converter 23 or the data from the memory control unit 15. Further, the image processing unit 24 performs a predetermined calculation process using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the calculation result obtained by the image processing unit 24. Thereby, TTL (through the lens) type AF (auto focus) processing, AE (auto exposure) processing, EF (flash pre-emission) processing, and the like are performed. The image processing unit 24 further performs predetermined arithmetic processing using the captured image data, and performs TTL AWB (auto white balance) processing based on the obtained arithmetic result.

顔検出部24aは、画像処理部24で得られた画像から人の顔などの特定領域を検出する少なくとも1つのプロセッサまたは回路である。また器官検出部24bは、画像処理部24で得られた画像と顔検出部24aで検出した特定領域から器官領域を検出する少なくとも1つのプロセッサまたは回路である。ここでの器官とは、顔を構成する要素である瞳や鼻、口などである。本撮像装置では顔検出部24a、器官検出部24b(顔検出部24aで検出した特定領域の要素の検出部)のいずれも画像処理部24の一部である。すなわち、顔検出部24a、器官検出部24bは双方の機能を有する同一のプロセッサまたは回路又はモジュールであってもよく、それぞれ異なるプロセッサまたは回路またはモジュールであっても良い。   The face detection unit 24a is at least one processor or circuit that detects a specific area such as a human face from the image obtained by the image processing unit 24. The organ detecting section 24b is at least one processor or circuit for detecting an organ area from the image obtained by the image processing section 24 and the specific area detected by the face detecting section 24a. Here, the organs are pupils, nose, mouth, and the like, which are elements constituting the face. In the present imaging apparatus, both the face detection unit 24a and the organ detection unit 24b (detection units for the elements of the specific area detected by the face detection unit 24a) are part of the image processing unit 24. That is, the face detection unit 24a and the organ detection unit 24b may be the same processor, circuit, or module having both functions, or may be different processors, circuits, or modules.

A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介してメモリ32に書き込まれる。あるいは、A/D変換器23からの出力データは、画像処理部24を介さずにメモリ制御部15を介してメモリ32に書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28やEVF29に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。   Output data from the A / D converter 23 is written to the memory 32 via the image processing unit 24 and the memory control unit 15. Alternatively, output data from the A / D converter 23 is written to the memory 32 via the memory control unit 15 without passing through the image processing unit 24. The memory 32 stores image data obtained by the imaging unit 22 and converted into digital data by the A / D converter 23, and image data to be displayed on the display unit 28 and the EVF 29. The memory 32 has a sufficient storage capacity for storing a predetermined number of still images, moving images and audio for a predetermined time.

また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器19は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28やEVF29に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器19を介して表示部28やEVF29により表示される。表示部28とEVF29のそれぞれは、LCDや有機EL等の表示器上で、D/A変換器19からのアナログ信号に応じた表示を行う。A/D変換器23によってA/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器19においてアナログ信号に変換し、表示部28またはEVF29に逐次転送して表示することで、ライブビュー表示(LV)が行える。以下、ライブビュー表示で表示される画像をライブビュー画像(LV画像)と称する。   The memory 32 also serves as an image display memory (video memory). The D / A converter 19 converts the image display data stored in the memory 32 into an analog signal and supplies the analog signal to the display unit 28 and the EVF 29. Thus, the display image data written in the memory 32 is displayed on the display unit 28 or the EVF 29 via the D / A converter 19. Each of the display unit 28 and the EVF 29 performs display according to an analog signal from the D / A converter 19 on a display such as an LCD or an organic EL. A digital signal that has been A / D converted by the A / D converter 23 and stored in the memory 32 is converted into an analog signal by the D / A converter 19, and is sequentially transferred to the display unit 28 or the EVF 29 for display. View display (LV) can be performed. Hereinafter, an image displayed in the live view display is referred to as a live view image (LV image).

ファインダー外表示部43には、ファインダー外表示部駆動回路44を介して、シャッター速度や絞りをはじめとするカメラの様々な設定値が表示される。   Various setting values of the camera, such as shutter speed and aperture, are displayed on the outside viewfinder display section 43 via the outside viewfinder drive circuit 44.

不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばEEPROM等である。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記録される。ここでいうプログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。   The nonvolatile memory 56 is an electrically erasable / recordable memory, and is, for example, an EEPROM. The non-volatile memory 56 stores constants, programs, and the like for the operation of the system control unit 50. The program referred to here is a program for executing various flowcharts described later in the present embodiment.

システム制御部50は、少なくとも1つのプロセッサーまたは回路からなる制御部であり、デジタルカメラ100全体を制御する。システム制御部50は、前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52は例えばRAMであり、システム制御部50は、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等をシステムメモリ52に展開する。また、システム制御部50は、メモリ32、D/A変換器19、表示部28等を制御することにより表示制御も行う。   The system control unit 50 is a control unit including at least one processor or circuit, and controls the entire digital camera 100. The system control unit 50 realizes each process of the present embodiment described later by executing the program recorded in the non-volatile memory 56 described above. The system memory 52 is, for example, a RAM, and the system control unit 50 develops, in the system memory 52, constants and variables for operation of the system control unit 50, programs read from the nonvolatile memory 56, and the like. The system control unit 50 also performs display control by controlling the memory 32, the D / A converter 19, the display unit 28, and the like.

システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。   The system timer 53 is a time measuring unit that measures the time used for various controls and the time of a built-in clock.

電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出などを行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。   The power control unit 80 includes a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like, and detects whether or not a battery is installed, the type of the battery, the remaining battery level, and the like. Further, the power control unit 80 controls the DC-DC converter based on the detection result and the instruction of the system control unit 50, and supplies a necessary voltage to each unit including the recording medium 200 for a necessary period. The power supply unit 30 includes a primary battery such as an alkaline battery and a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, and a Li battery, and an AC adapter.

記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。   The recording medium I / F 18 is an interface with a recording medium 200 such as a memory card or a hard disk. The recording medium 200 is a recording medium such as a memory card for recording a captured image, and includes a semiconductor memory, a magnetic disk, and the like.

通信部54は、無線または有線ケーブルによって接続された外部機器との間で、映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部54は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部54は撮像部22で撮像した画像(LV画像を含む)や、記録媒体200に記録された画像を送信可能であり、外部機器から画像データやその他の各種情報を受信することができる。   The communication unit 54 transmits and receives a video signal and an audio signal to and from an external device connected by a wireless or wired cable. The communication unit 54 is also connectable to a wireless LAN (Local Area Network) or the Internet. In addition, the communication unit 54 can communicate with an external device using Bluetooth (registered trademark) or Bluetooth Low Energy. The communication unit 54 can transmit an image (including an LV image) captured by the imaging unit 22 and an image recorded on the recording medium 200, and can receive image data and other various information from an external device.

姿勢検知部55は、重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。姿勢検知部55である加速度センサーやジャイロセンサーを用いて、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。   The posture detection unit 55 detects the posture of the digital camera 100 with respect to the direction of gravity. Based on the posture detected by the posture detection unit 55, whether the image photographed by the imaging unit 22 is an image photographed by holding the digital camera 100 horizontally or an image photographed by holding it vertically. Can be determined. The system control unit 50 can add orientation information according to the orientation detected by the orientation detection unit 55 to the image file of the image captured by the imaging unit 22 or rotate and record the image. is there. As the posture detecting unit 55, an acceleration sensor, a gyro sensor, or the like can be used. It is also possible to detect the movement of the digital camera 100 (pan, tilt, lift, or not, etc.) using an acceleration sensor or a gyro sensor as the posture detecting unit 55.

接眼検知部57は、接眼ファインダー17(以後、単に「ファインダー」と記載する)の接眼部16に対する目(物体)の接近(接眼)および離反(離眼)を検知する(接近検知)、接眼検知センサーである。システム制御部50は、接眼検知部57で検知された状態に応じて、表示部28とEVF29の表示(表示状態)/非表示(非表示状態)を切り替える。より具体的には、少なくとも撮影待機状態で、かつ、表示先の切替が自動切替である場合において、非接眼中は表示先を表示部28として表示をオンとし、EVF29は非表示とする。また、接眼中は表示先をEVF29として表示をオンとし、表示部28は非表示とする。接眼検知部57としては、例えば赤外線近接センサーを用いることができ、EVF29を内蔵するファインダー17の接眼部16への何らかの物体の接近を検知することができる。物体が接近した場合は、接眼検知部57の投光部(図示せず)から投光した赤外線が物体で反射して赤外線近接センサーの受光部(図示せず)で受光される。受光された赤外線の量によって、物体が接眼部16からどの距離まで近づいているか(接眼距離)も判別することができる。このように、接眼検知部57は、接眼部16への物体の近接距離を検知する接眼検知を行う。非接眼状態(非接近状態)から、接眼部16に対して所定距離以内に近づく物体が検出された場合に、接眼されたと検出するものとする。接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサーは一例であって、接眼検知部57には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサーを採用してもよい。   The eyepiece detection unit 57 detects the approach (eyepiece) and separation (eye separation) of the eye (object) from the eyepiece finder 17 (hereinafter simply referred to as “finder”) with respect to the eyepiece unit 16 (approach detection), and the eyepiece. It is a detection sensor. The system control unit 50 switches display (display state) / non-display (non-display state) of the display unit 28 and the EVF 29 according to the state detected by the eyepiece detection unit 57. More specifically, at least in a photographing standby state and when the switching of the display destination is automatic switching, the display destination is turned on as the display unit 28 and the EVF 29 is not displayed during the non-eyepiece. During the eyepiece operation, the display is set to the EVF 29, the display is turned on, and the display unit 28 is not displayed. As the eyepiece detection unit 57, for example, an infrared proximity sensor can be used, and it is possible to detect the approach of any object to the eyepiece unit 16 of the viewfinder 17 incorporating the EVF 29. When the object approaches, the infrared light emitted from the light emitting unit (not shown) of the eyepiece detection unit 57 is reflected by the object and received by the light receiving unit (not shown) of the infrared proximity sensor. Based on the amount of received infrared light, it is also possible to determine how far the object is from the eyepiece 16 (eyepiece distance). As described above, the eyepiece detection unit 57 performs the eyepiece detection that detects the proximity distance of the object to the eyepiece unit 16. It is assumed that when an object approaching the eyepiece 16 within a predetermined distance from the non-eyepiece state (non-approaching state) is detected, it is detected that the eyepiece has been brought into contact. It is assumed that when the object whose proximity has been detected is separated from the eyepiece state (approaching state) by a predetermined distance or more, it is detected that the eye has been separated. The threshold value for detecting the eyepiece and the threshold value for detecting the eye separation may be different, for example, by providing hysteresis. After detecting the eyepiece, the eyepiece is assumed to be in the eyepiece state until the eye separation is detected. After detecting the eye separation, it is assumed that the eyepiece is in the non-eyepiece state until the eyepiece is detected. Note that the infrared proximity sensor is an example, and the eyepiece detection unit 57 may employ another sensor as long as it can detect the approach of an eye or an object regarded as an eyepiece.

操作部70は、ユーザーからの操作(ユーザー操作)を受け付ける入力部であり、システム制御部50に各種の動作指示を入力するために使用される。図2に示すように、操作部70は、モード切替スイッチ60、シャッターボタン61、電源スイッチ72、タッチパネル70a、タッチバー82、等を含む。また、操作部70は、その他の操作部材70bとして、メイン電子ダイヤル71、サブ電子ダイヤル73、4方向キー74、SETボタン75、動画ボタン76、AEロックボタン77、拡大ボタン78、再生ボタン79、メニューボタン81、等を含む。   The operation unit 70 is an input unit that receives an operation (user operation) from a user, and is used to input various operation instructions to the system control unit 50. As shown in FIG. 2, the operation unit 70 includes a mode changeover switch 60, a shutter button 61, a power switch 72, a touch panel 70a, a touch bar 82, and the like. The operation unit 70 includes, as other operation members 70b, a main electronic dial 71, a sub electronic dial 73, a four-way key 74, a SET button 75, a video button 76, an AE lock button 77, an enlargement button 78, a play button 79, Menu button 81 and the like.

モード切替スイッチ60は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画撮影モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。モード切替スイッチ60より、ユーザーは、これらのモードのいずれかに直接切り替えることができる。あるいは、モード切替スイッチ60で撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードのいずれかに、他の操作部材を用いて選択的に切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。   The mode switch 60 switches the operation mode of the system control unit 50 to one of a still image shooting mode, a moving image shooting mode, a playback mode, and the like. The modes included in the still image shooting mode include an auto shooting mode, an auto scene determination mode, a manual mode, an aperture priority mode (Av mode), a shutter speed priority mode (Tv mode), and a program AE mode (P mode). In addition, there are various scene modes, custom modes, and the like, which are shooting settings for each shooting scene. The mode switch 60 allows the user to directly switch to any of these modes. Alternatively, after temporarily switching to the shooting mode list screen with the mode switch 60, the mode may be selectively switched to any of the displayed modes by using another operation member. Similarly, the moving image shooting mode may include a plurality of modes.

シャッターボタン61は、第1シャッタースイッチ62と第2シャッタースイッチ64を備える。第1シャッタースイッチ62は、シャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。システム制御部50は、第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の撮影準備動作を開始する。   The shutter button 61 includes a first shutter switch 62 and a second shutter switch 64. The first shutter switch 62 is turned on by the so-called half-press (instruction for shooting preparation) during the operation of the shutter button 61, and generates a first shutter switch signal SW1. The system control unit 50 starts a shooting preparation operation such as an AF (auto focus) process, an AE (auto exposure) process, an AWB (auto white balance) process, and an EF (flash pre-flash) process in response to the first shutter switch signal SW1. I do.

第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから、撮像された画像を画像ファイルとして記録媒体200に書き込むまでの、一連の撮影処理の動作を開始する。   The second shutter switch 64 is turned on when the operation of the shutter button 61 is completed, that is, when the shutter button 61 is fully pressed (photographing instruction), and generates a second shutter switch signal SW2. In response to the second shutter switch signal SW2, the system control unit 50 starts a series of shooting processing operations from reading out the signal from the imaging unit 22 to writing the taken image as an image file on the recording medium 200.

タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aは、光の透過率が表示部28の表示を妨げないように構成され、表示部28の表示面の上層に取り付けられる。そして、タッチパネル70aにおける入力座標と、表示部28の表示面上の表示座標とを対応付ける。これにより、あたかもユーザーが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を提供できる。システム制御部50は、タッチパネル70aへの以下の操作、あるいは状態を検出できる。
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch−Down)と称する)
・タッチパネル70aを指やペンでタッチしている状態(以下、タッチオン(Touch−On)と称する)
・指やペンがタッチパネル70aをタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)
・タッチパネル70aへタッチしていた指やペンがタッチパネル70aから離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch−Up)と称する)
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)
The touch panel 70a and the display unit 28 can be integrally configured. For example, the touch panel 70a is configured so that light transmittance does not hinder display on the display unit 28, and is attached to an upper layer of the display surface of the display unit 28. Then, the input coordinates on the touch panel 70a are associated with the display coordinates on the display surface of the display unit 28. Thereby, it is possible to provide a GUI (graphical user interface) as if the user could directly operate the screen displayed on the display unit 28. The system control unit 50 can detect the following operation or state on the touch panel 70a.
The fact that a finger or a pen that has not touched the touch panel 70a has newly touched the touch panel 70a, that is, the start of touch (hereinafter, referred to as touch-down).
A state in which the touch panel 70a is touched with a finger or a pen (hereinafter, referred to as touch-on).
-A finger or a pen is moving while touching the touch panel 70a (hereinafter referred to as touch-move).
-The finger or pen touching the touch panel 70a has been released (released) from the touch panel 70a, that is, the end of the touch (hereinafter referred to as touch-up (Touch-Up)).
-A state in which nothing is touched on the touch panel 70a (hereinafter, referred to as touch-off)

タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。   When touch-down is detected, touch-on is also detected at the same time. After a touch-down, a touch-on is usually continuously detected unless a touch-up is detected. When a touch move is detected, a touch-on is detected at the same time. Even if a touch-on is detected, a touch move is not detected unless the touch position has moved. After it is detected that all the touched fingers or pens have been touched up, the touch is turned off.

これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。そして、システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行なわれたと判定するものとする。タッチパネル70a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものであってもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。   These operations / states and the coordinates of the position where the finger or pen touches the touch panel 70a are notified to the system control unit 50 via the internal bus. Then, system control unit 50 determines what operation (touch operation) has been performed on touch panel 70a based on the notified information. As for the touch move, the moving direction of the finger or the pen moving on the touch panel 70a can be determined for each of the vertical component and the horizontal component on the touch panel 70a based on the change in the position coordinates. If it is detected that a touch move has been performed for a predetermined distance or more, it is determined that a slide operation has been performed. An operation of quickly moving the finger on the touch panel 70a by a certain distance while touching the finger and releasing the finger is referred to as a flick. In other words, the flick is an operation of quickly tracing the touch panel 70a as if to flick it with a finger. If it is detected that a touch move has been performed at a predetermined speed or more at a predetermined speed or more, and a touch-up is detected as it is, it can be determined that a flick has been performed (it can be determined that there has been a flick following the slide operation). Further, a touch operation of touching a plurality of places (for example, two points) together (by multi-touch) to bring the touch positions closer to each other is referred to as a pinch-in, and a touch operation for moving the touch positions away from each other is referred to as a pinch-out. Pinch out and pinch in are collectively referred to as pinch operation (or simply pinch). The touch panel 70a may be any of various types of touch panels such as a resistive film type, a capacitive type, a surface acoustic wave type, an infrared type, an electromagnetic induction type, an image recognition type, and an optical sensor type. Good. There are a method of detecting that a touch has been made by a touch on the touch panel, and a method of detecting that a touch has been made by a finger or a pen approaching the touch panel, and any method may be used.

また、システム制御部50は、タッチバー82への以下の操作、あるいは状態を検出できる。
・タッチバー82にタッチしていなかった指が新たにタッチバー82にタッチしたこと、すなわちタッチの開始(タッチダウン(Touch−Down))
・タッチバー82を指でタッチしている状態(タッチオン(Touch−On))
・指がタッチバー82をタッチしたまま移動していること(タッチムーブ(Touch−Move))
・タッチバー82へタッチしていた指がタッチバー82から離れた(リリースされた)こと、すなわちタッチの終了(タッチアップ(Touch−Up))
・タッチバー82に何もタッチしていない状態(タッチオフ(Touch−Off))
Further, the system control unit 50 can detect the following operation or state on the touch bar 82.
The fact that a finger that has not touched the touch bar 82 newly touches the touch bar 82, that is, the start of touch (touch-down (Touch-Down))
A state in which the finger is touching the touch bar 82 (touch-on (Touch-On))
-A finger is moving while touching the touch bar 82 (Touch-Move)
The fact that the finger touching the touch bar 82 has been released (released) from the touch bar 82, that is, the end of the touch (touch-up (Touch-Up)).
A state in which nothing is touched on the touch bar 82 (touch-off (Touch-Off))

タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。   When touch-down is detected, touch-on is also detected at the same time. After a touch-down, a touch-on is usually continuously detected unless a touch-up is detected. When a touch move is detected, a touch-on is detected at the same time. Even if a touch-on is detected, a touch move is not detected unless the touch position has moved. After it is detected that all the touched fingers or pens have been touched up, the touch is turned off.

これらの操作・状態や、タッチバー82上に指がタッチしている位置座標は内部バスを通じてシステム制御部50に通知され、システム制御部50は通知された情報に基づいてタッチバー82上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチバー82上での水平方向(左右方向)の移動を検知する。タッチ位置が所定距離以上移動(所定量以上移動)したことが検出された場合はスライド操作が行なわれたと判定するものとする。タッチバー82上に指をタッチし、スライド操作することなく、所定時間以内にタッチを離す操作があった場合に、タップ操作が行われたと判定するものとする。タッチバー82は、本実施形態では、静電容量方式のタッチセンサーであるものとする。ただし、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、別の方式のタッチセンサーであってもよい。   These operations / states and the coordinates of the position where the finger is touching the touch bar 82 are notified to the system control unit 50 via the internal bus, and the system control unit 50 determines what kind of information is displayed on the touch bar 82 based on the notified information. It is determined whether an operation (touch operation) has been performed. For the touch move, the movement in the horizontal direction (left / right direction) on the touch bar 82 is detected. If it is detected that the touch position has moved a predetermined distance or more (moved a predetermined amount or more), it is determined that a slide operation has been performed. It is assumed that if there is an operation of releasing the touch within a predetermined time without touching the finger on the touch bar 82 and performing a slide operation, it is determined that a tap operation has been performed. In this embodiment, the touch bar 82 is a capacitive touch sensor. However, another type of touch sensor such as a resistive film type, a surface acoustic wave type, an infrared type, an electromagnetic induction type, an image recognition type, an optical sensor type, etc. may be used.

<タッチバー82の配置と操作>
図3(a)はタッチバー82の配置を示す図である。図3(a)に示すように、タッチバー82は、デジタルカメラ100の背面側においてファインダー17に隣接して配置されている。また、タッチバー82は、サブ電子ダイヤル73、及び、右手でグリップ部90を握ってデジタルカメラ100を保持した際に親指の位置となるサムレスト部91とも隣接して配置されている。サムレスト部91は、一般的にデジタルカメラ100の前面側にあるグリップ部90を背面側に投影した領域の上部に存在する。そして、図3(a)に示すように、ラバー等を貼付することでサムレスト部91を示すと共にグリップ感を高めていることが多い。
<Arrangement and operation of touch bar 82>
FIG. 3A is a diagram illustrating an arrangement of the touch bar 82. As shown in FIG. 3A, the touch bar 82 is disposed adjacent to the finder 17 on the back side of the digital camera 100. The touch bar 82 is also arranged adjacent to the sub electronic dial 73 and a thumb rest portion 91 which is a position of a thumb when the digital camera 100 is held by gripping the grip portion 90 with the right hand. The thumb rest portion 91 is generally present above a region where the grip portion 90 on the front side of the digital camera 100 is projected on the back side. Then, as shown in FIG. 3A, a rubber or the like is often attached to indicate the thumb rest portion 91 and enhance the grip feeling.

このように、本実施形態では、以下の条件1〜3を満たすようにタッチバー82が設けられている。
条件1:デジタルカメラ100の背面のうち、ファインダー17より右側(第1の方向側)にタッチバー82が設けられている。
条件2:デジタルカメラ100の背面のうち、グリップ部90より左側(第2の方向側)にタッチバー82が設けられている。
条件3:デジタルカメラ100のうち、中央よりも、上側(第1の方向と垂直な方向において中央からファインダー側に向かう第3の方向側)にタッチバー82が設けられている。
As described above, in the present embodiment, the touch bar 82 is provided so as to satisfy the following conditions 1 to 3.
Condition 1: On the rear surface of the digital camera 100, a touch bar 82 is provided on the right side (first direction side) of the viewfinder 17.
Condition 2: The touch bar 82 is provided on the left side (the second direction side) of the grip portion 90 on the back surface of the digital camera 100.
Condition 3: In the digital camera 100, the touch bar 82 is provided above the center (the third direction side from the center to the finder side in the direction perpendicular to the first direction).

これにより、ファインダー17を覗きながらタッチバー82を容易に操作することができる。具体的には、タッチバー82がサムレスト部91に隣接することによって、グリップ部90を握った状態で、右手の親指で、タップ操作、左右(X軸方向)へのスライド操作などがタッチバー82に対して行いやすくなっている。タッチバー82は、非可動の操作部材であり、図3(a)に示す通り、単一のキートップ(カバー)で覆われた単一の操作部材である。これは、静電容量式の操作部材に可動機構や分割構造がある場合は、操作指の接触が安定せず、操作性やスライド操作時のリニアリティが阻害される可能性があるためである。   This allows the touch bar 82 to be easily operated while looking through the finder 17. Specifically, when the touch bar 82 is adjacent to the thumb rest portion 91, a tap operation, a slide operation to the left and right (X-axis direction), and the like can be performed on the touch bar 82 with the right thumb while holding the grip portion 90. It is easier to do. The touch bar 82 is a non-movable operation member, and is a single operation member covered with a single key top (cover) as shown in FIG. This is because, when the capacitance type operation member has a movable mechanism or a divided structure, the contact of the operation finger is not stable, and the operability and the linearity at the time of the slide operation may be impaired.

また、他のダイヤル部材と併用しやすいように、タッチバー82を操作する面は、サブ電子ダイヤル73を操作する面と同一となっている。換言すれば、タッチバー82を操作する面は、サブ電子ダイヤル73の回転軸に対して垂直となっている。また、タッチバー82のスライド方向(左右方向)を直感的に理解できるようにしたり、タッチバー82のスライド操作を行いやすくしたりするために、タッチバー82の左右方向の幅は、タッチバー82の上下方向の幅よりも長くされている。また、意図せずタッチバー82に触れることを防ぐために、タッチバー82は、デジタルカメラ100の背面に設けられた複数の操作部材のうち、最も上側に設けられている。また、意図せずタッチバー82に触れることを防ぐために、タッチバー82は、タッチパネル70aを除く、デジタルカメラ100の背面に設けられ、かつファインダー17より右側に設けられた複数の操作部材のうち、最も左側に設けられている。   The surface on which the touch bar 82 is operated is the same as the surface on which the sub electronic dial 73 is operated so that it can be easily used together with other dial members. In other words, the surface on which the touch bar 82 is operated is perpendicular to the rotation axis of the sub electronic dial 73. The width of the touch bar 82 in the left-right direction is set so that the sliding direction (left-right direction) of the touch bar 82 can be intuitively understood and the sliding operation of the touch bar 82 can be easily performed. It is longer than the width. In order to prevent the user from unintentionally touching the touch bar 82, the touch bar 82 is provided at the uppermost position among a plurality of operation members provided on the back surface of the digital camera 100. In order to prevent the user from unintentionally touching the touch bar 82, the touch bar 82 is provided on the back surface of the digital camera 100 except for the touch panel 70a, and is the leftmost one of a plurality of operation members provided on the right side of the finder 17. It is provided in.

図3(b)はタッチバー82の内部(キートップ下層)を示す拡大図である。図3(b)に示すように、タッチバー82の内部には、3つのタッチセンサー電極302a,302b,302cが配置されている。タッチセンサー電極302a,302b,302cのそれぞれはプリント基板301の銅箔配線等で構成され、図3(b)に示すような電極形状を有する。システム制御部50は、タッチセンサー電極302a,302b,302cのそれぞれの電圧(電圧出力値)を読み出すことができる。そして、システム制御部50は、タッチセンサー電極302a,302b,302cのそれぞれについて、ベース電圧(環境に応じて調整や校正される基準値)からの電圧の変化量である電圧変化量を検出可能である。システム制御部50は、タッチセンサー電極302a,302b,302cのそれぞれについて検出された電圧変化量(静電容量の変化量)を加重平均し、X軸方向(横方向)のタッチ位置を0〜255の256段階で示す信号(タッチ座標)を取得する。0が最も左側(ファインダー17側)の位置を示し、255が最も右側(サムレスト部91側)の位置を示す。なお、図3(b)では電極数が3つであるが、電極数は3つに限るものではない。さらに電極形状は図3(b)に示す形状に限るものではない。また、タッチ座標も256段階の値に限るものではない。   FIG. 3B is an enlarged view showing the inside of the touch bar 82 (the lower layer of the key top). As shown in FIG. 3B, inside the touch bar 82, three touch sensor electrodes 302a, 302b, 302c are arranged. Each of the touch sensor electrodes 302a, 302b, and 302c is formed of a copper foil wiring or the like on the printed circuit board 301 and has an electrode shape as shown in FIG. The system control unit 50 can read the voltage (voltage output value) of each of the touch sensor electrodes 302a, 302b, 302c. Then, the system control unit 50 can detect, for each of the touch sensor electrodes 302a, 302b, and 302c, a voltage change amount that is a voltage change amount from a base voltage (a reference value that is adjusted or calibrated according to the environment). is there. The system control unit 50 weights and averages the voltage change amounts (capacitance change amounts) detected for each of the touch sensor electrodes 302a, 302b, and 302c, and sets the touch position in the X-axis direction (lateral direction) to 0 to 255. The signal (touch coordinates) indicated in 256 steps is acquired. 0 indicates the leftmost position (on the finder 17 side), and 255 indicates the rightmost position (on the thumbrest portion 91 side). Although the number of electrodes is three in FIG. 3B, the number of electrodes is not limited to three. Further, the electrode shape is not limited to the shape shown in FIG. Further, the touch coordinates are not limited to 256-level values.

図3(c)はタッチバー82の基本操作を示す拡大図である。タッチバー82には、操作位置・操作方法に応じた機能を割り当てることが可能である。タッチバー82のタッチ検知面(キートップ)のうち、全体ではなく左側の一部領域である左側部82Lへのタップ操作(以下、左タップ)と、右側の一部領域である右側部82Rへのタップ操作(以下、右タップ)とに個別に機能を割り当てることが可能である。さらに、タッチバー82のキートップ上での左右(矢印310で示す方向)へのスライド操作にも、左タップや右タップと区別して機能を割り当てることが可能である。すなわち、タッチバー82の操作箇所毎や操作方式毎(操作種別毎)に異なる機能が登録可能である。左タップと右タップは、例えば、タッチ座標が128以下(中央より左側)のタップであれば左タップ、タッチ座標が129以上(中央より右側)へのタップであれば右タップ、というように判別することが可能である。なお、中央へのタップは左タップと右タップのどちらでもないと判定するようにし、例えばタッチ座標が100以下のタップであれば左タップ、タッチ座標が155以上であれば右タップ、というように判定してもよい。   FIG. 3C is an enlarged view showing a basic operation of the touch bar 82. The touch bar 82 can be assigned a function according to the operation position and operation method. On the touch detection surface (key top) of the touch bar 82, a tap operation (hereinafter referred to as a left tap) is performed on a left portion 82L, which is a partial region on the left side, not on the whole, and a right portion 82R is defined on a right partial region. A function can be individually assigned to a tap operation (hereinafter, right tap). Further, a function can also be assigned to a sliding operation on the key top of the touch bar 82 to the left and right (in the direction indicated by the arrow 310) in distinction from the left tap and the right tap. That is, different functions can be registered for each operation location of the touch bar 82 and for each operation method (for each operation type). The left tap and the right tap are determined, for example, as a left tap if the touch coordinate is 128 or less (left side from the center), and a right tap if the touch coordinate is 129 or more (right side from the center). It is possible to In addition, it is determined that the tap to the center is neither a left tap nor a right tap. For example, a tap with a touch coordinate of 100 or less is a left tap, and a touch with a touch coordinate of 155 or more is a right tap. It may be determined.

これらの操作に割り当てられる機能の一例を説明する。左タップには、デジタルカメラ100の撮影ISO感度を1/3段低感度に設定する機能が、右タップには、撮影ISO感度を1/3段高感度に設定する機能が割り当てられる。また、スライド操作には、デジタルカメラ100の撮影ISO感度をスライド操作の所定距離毎(タッチ座標が基準距離、例えば43移動する毎)に1/3段ずつ増減する機能が割り当てられる。   An example of functions assigned to these operations will be described. The left tap is assigned a function of setting the photographing ISO sensitivity of the digital camera 100 to 1/3 step low sensitivity, and the right tap is assigned a function of setting the photographing ISO sensitivity to 1/3 step high sensitivity. The slide operation is assigned a function of increasing / decreasing the shooting ISO sensitivity of the digital camera 100 by 1/3 step for each predetermined distance of the slide operation (each time the touch coordinate moves by a reference distance, for example, 43).

更に、これらの操作に割り当てられる機能は、ユーザーによってカスタマイズ可能である。例えば、左タップに、デジタルカメラ100の撮影ISO感度を自動設定する機能を、右タップに、撮影ISO感度を最高値に設定する機能を割り当てるといった変更が可能である。タッチバー82には、これらの他にも多様な機能の割り当てが可能であり、タッチバー82を利用して多くの機能を実行することが可能である。   Furthermore, the functions assigned to these operations can be customized by the user. For example, a change can be made such that a function for automatically setting the shooting ISO sensitivity of the digital camera 100 is assigned to the left tap, and a function for setting the shooting ISO sensitivity to the maximum value is assigned to the right tap. Various other functions can be assigned to the touch bar 82, and many functions can be executed using the touch bar 82.

また、システム制御部50は、タッチバー82のタッチセンサー電極302a,302b,302cの全てにおいて上記電圧変化量が或る閾値を超えている場合に、指がタッチバー82の全面を覆っていると判断し、このタッチ操作を全面タッチとして判定する。全面タッチは、図3(d)に示すように、グリップ部90を把持する右手の親指の腹部全体でタッチバー82にタッチすることを想定した操作方法である。スライド操作、左タップ、右タップに割り当てられた機能はユーザーによってカスタマイズ可能であるが、全面タッチには一意の機能が割り当てられており、全面タッチに割り当てられた機能は変更不可能である。これにより、全面タッチの機能も、基本操作(スライド操作やタップ)の機能も、即時発動させることが可能となる。なお、全面タッチという操作自体の有効/無効は設定可能としてもよい。   Further, the system control unit 50 determines that the finger covers the entire surface of the touch bar 82 when the amount of voltage change in all of the touch sensor electrodes 302a, 302b, and 302c of the touch bar 82 exceeds a certain threshold. This touch operation is determined as a full-screen touch. As shown in FIG. 3D, the full-surface touch is an operation method on the assumption that the user touches the touch bar 82 with the entire abdomen of the right thumb gripping the grip portion 90. The functions assigned to the slide operation, the left tap, and the right tap can be customized by the user, but a unique function is assigned to the full touch, and the function assigned to the full touch cannot be changed. As a result, it is possible to immediately activate both the function of touching the entire surface and the function of the basic operation (slide operation or tap). It should be noted that the validity / invalidity of the operation of the entire surface touch may be settable.

全面タッチには以下のような特徴がある。
・操作指である親指を水平方向(X方向)に向けて第一関節までの全体を接触させる特殊な操作であるという特徴
・全面タッチの接触状態は通常の操作では起こりにくい特殊な接触状態であるため、意図しない操作によって全面タッチが行われる可能性が低いという特徴
・全面タッチには常に決まった機能(後述)が設定されているため、ユーザーは設定されている機能を覚えなおす必要が無いという特徴
・左タップ、右タップ、及び、スライド操作に対してどのような機能を割り当てていても全面タッチの機能は変わらないため、ユーザーは安心して全面タッチを行うことができるという特徴
The full touch has the following features.
-The special operation of pointing the thumb, which is the operating finger, in the horizontal direction (X direction) and making contact with the entire joint up to the first joint.-The contact state of the full-face touch is a special contact state that is unlikely to occur in normal operation. There is a feature that the entire surface touch is unlikely to be performed due to an unintended operation because the predetermined function (described later) is always set for the entire surface touch, so the user does not need to remember the set function. -The feature of full-face touch does not change regardless of what function is assigned to left tap, right tap, and slide operation, so that the user can perform full touch with peace of mind.

システム制御部50は、タッチバー82へのユーザー操作を判別し、判別したユーザー操作に応じて、予め不揮発性メモリ56に記憶された割当機能を実行する。例えば、システム制御部50は、ユーザーがタッチ操作毎に割り当てた設定変更(露出に関する設定、WBに関する設定、及び、AFに関する設定の少なくとも何れかの撮影設定の変更など)を行う。タッチバー82はファインダー17を覗いた状態で操作可能である。そのため、ユーザーはタッチバー82を視認せずに操作することがある。この場合、操作面を視認していないので、ユーザーは誤操作をしてしまい意図せずに撮影設定のパラメータを変更してしまうおそれがある。そこで、以下のような誤操作防止の制御を行う。タッチバー82へのタッチ操作の有効状態(非ロック状態、非制限状態)/無効状態(ロック状態、制限状態)を切り替える。ロック状態では、タッチバー82への左タップ、右タップ、スライド操作を無視し、これらが行われても、各操作に割り当てられた機能を実行しない。ロック状態の時、タッチバー82のキートップ左側部82Lに対してスライドせずに静止した0.5秒のタッチ操作(ロングタッチ)があったこと(ロック解除操作があったこと)に応じてロック状態を解除して有効状態に遷移する。また、有効状態の時、キートップ左側部82Lに対して2秒のロングタッチがあったこと(ロック操作があったこと)、または10秒の無操作であったことに応じて、ロック状態に遷移する。更に、タッチバー82が有効状態であっても、タッチ位置に関わらず一定時間(本実施形態では1秒)以上のロングタッチは無視し、そのタッチ操作で左タップ、右タップ、スライドが行われても、それらに割り当てられた機能は実行しない(タッチキャンセル)。全面タッチに割り当てられた機能は、有効状態かロック状態かに関わらず全面タッチに応じて実行される。なお、ユーザーがロック解除操作またはロック操作を行った場合、システム制御部50はユーザーがタッチアップするまでタッチバー82に対する操作を受け付けない。   The system control unit 50 determines a user operation on the touch bar 82 and executes an assignment function stored in the nonvolatile memory 56 in advance in accordance with the determined user operation. For example, the system control unit 50 changes a setting assigned by the user for each touch operation (a change in at least one of a setting related to exposure, a setting related to WB, and a setting related to AF, etc.). The touch bar 82 can be operated while looking through the viewfinder 17. Therefore, the user may operate the touch bar 82 without visually recognizing it. In this case, since the operation surface is not visually recognized, the user may perform an erroneous operation and unintentionally change the parameters of the shooting setting. Thus, the following erroneous operation prevention control is performed. The state of the touch operation on the touch bar 82 is switched between a valid state (non-locked state, non-restricted state) and an invalid state (locked state, restricted state). In the locked state, the left tap, the right tap, and the slide operation on the touch bar 82 are ignored, and even if these operations are performed, the function assigned to each operation is not executed. In the locked state, the touch bar 82 is locked in response to a 0.5 second touch operation (long touch) that has stopped without sliding on the left key portion 82L of the touch bar 82 (the lock operation has been performed). Release the state and transit to the valid state. Also, in the valid state, the lock state is set in response to a long touch of 2 seconds on the key top left portion 82L (there is a lock operation) or no operation for 10 seconds. Transition. Further, even if the touch bar 82 is in an effective state, a long touch for a certain time (1 second in this embodiment) or more is ignored regardless of the touch position, and a left tap, a right tap, and a slide are performed by the touch operation. Also, do not execute the function assigned to them (touch cancel). The function assigned to the full touch is executed according to the full touch regardless of the valid state or the locked state. When the user performs an unlocking operation or a locking operation, the system control unit 50 does not accept an operation on the touch bar 82 until the user touches up.

このように、本実施形態では、有効状態とロック状態の切り替えのための操作を、デジタルカメラ100の通常の使用時に比較的生じ難いロングタッチ(タッチ継続操作)で共通化する。これにより、ロック状態と有効状態の意図せぬ切り替えを生じ難くすることができ、ロック状態と有効状態を高精度に切り替えることができるようになる。所定時間以上タッチを継続するロングタッチは比較的簡易な操作であるため、有効状態とロック状態の切り替えのための操作方法は覚えやすく、当該操作方法をユーザーが忘れる可能性は低い。さらに、タッチバー82に対する操作で有効状態とロック状態が切り替えられるため、有効状態とロック状態の切り替えのための他の操作部材を設ける必要はなく、構成も簡易である。また、本実施形態では、有効状態に遷移するためのタッチ継続時間を、ロック状態に遷移するためのタッチ継続時間より短くすることで、ロック状態が素早く解除できるようになり、ロック状態後の操作(撮影など)を素早く行えるようになる。   As described above, in the present embodiment, the operation for switching between the valid state and the locked state is shared by a long touch (touch continuation operation) that is relatively unlikely to occur during normal use of the digital camera 100. This makes it difficult to cause unintended switching between the locked state and the valid state, and makes it possible to switch between the locked state and the valid state with high accuracy. A long touch, which continues touching for a predetermined time or more, is a relatively simple operation, and therefore, an operation method for switching between the valid state and the locked state is easy to remember, and the possibility that the user forgets the operation method is low. Further, since the valid state and the locked state are switched by operating the touch bar 82, it is not necessary to provide another operation member for switching between the valid state and the locked state, and the configuration is simple. Further, in the present embodiment, by shortening the touch duration for transitioning to the valid state than the touch duration for transitioning to the locked state, the locked state can be quickly released, and the operation after the locked state is performed. (Such as shooting) can be done quickly.

キートップの左側部82Lを有効状態とロック状態の切り替えのための操作領域(特定領域)としている理由を述べる。ユーザーが右手でグリップ部90を把持し、右手の親指でタッチバー82を操作する場合に、タッチバー82のキートップ左側部82Lのようにグリップ部90から相対的に遠い領域は、意図的に触れないと触りにくい領域である。従って、キートップ左側部82Lのロングタッチがある場合にはロックやロック解除の意図があると判断できるため、キートップ左側部82Lをロック状態/有効状態を切り替える操作領域としている。また、キートップ左側部82Lはファインダー17に相対的に近い領域と言える。ファインダー17のような、キートップよりも突起した突起部に対して相対的に近い領域を、ロック状態/有効状態を切り替える操作領域とする。すなわち、タッチバー82のタッチ検知面のうち左側部82Lと異なる他の領域(例えば右側部82R)よりも突起部側(左側)の領域である左側部82Lをロック状態/有効状態を切り替える操作領域としている。これにより、ストラップを用いてデジタルカメラ100を首からかけた際に腹部とカメラ背面が接触しても、突起部がつっかえとなり、突起部よりも突起していないタッチバー82の左側部82Lに腹部が触れる可能性は低く、誤ったロック解除は生じにくい。また突起部(タッチバー82の操作面に垂直な方向の突起部)に指がぶつかるため、タッチバー82の領域うちファインダー17に近い領域(左側)は最も触れにくく、ロックやロック解除の意図を高精度に汲み取ることができる。なお、ファインダー17は少なくとも、デジタルカメラ100の背面側の、タッチバー82のキートップが備えられた面の上を、グリップ部90を保持した手の親指で左にスライドした場合に超えられない程度の高さで突起している。また、ファインダー17はタッチバー82からみて最も近い、操作面よりも突起した突起部である。   The reason why the left portion 82L of the key top is used as an operation area (specific area) for switching between the valid state and the locked state will be described. When the user grips the grip unit 90 with the right hand and operates the touch bar 82 with the thumb of the right hand, an area relatively far from the grip unit 90, such as the key top left portion 82L of the touch bar 82, is not intentionally touched. This is an area that is difficult to touch. Therefore, when there is a long touch on the left key top portion 82L, it can be determined that there is an intention to lock or unlock, and the left key top portion 82L is used as an operation area for switching between a locked state and a valid state. Also, the key top left portion 82L can be said to be a region relatively close to the finder 17. An area, such as the viewfinder 17, which is relatively close to the protrusion protruding from the key top is an operation area for switching between the locked state and the valid state. That is, the left side portion 82L, which is a region on the protruding portion side (left side) with respect to another region (for example, the right side portion 82R) of the touch detection surface of the touch bar 82 different from the left side portion 82L (for example, the right side portion 82R), is used as an operation region for switching between the locked state / effective state. I have. Accordingly, even when the abdomen and the back of the camera come into contact with each other when the digital camera 100 is worn around the neck using the strap, the protrusions are replaced, and the abdomen is attached to the left side 82L of the touch bar 82 that does not protrude from the protrusions. The possibility of touch is low and erroneous unlocking is unlikely to occur. In addition, since a finger hits a projection (a projection in a direction perpendicular to the operation surface of the touch bar 82), an area (left side) of the area of the touch bar 82 that is close to the finder 17 is hardest to touch, and the intention of locking or unlocking is accurately determined. Can be pumped. Note that the finder 17 is at least an extent that the finder 17 cannot be exceeded when the thumb of the hand holding the grip portion 90 is slid to the left on the surface of the digital camera 100 on which the key top of the touch bar 82 is provided. Protruding at height. Further, the finder 17 is a protruding portion which is closest to the touch bar 82 and protrudes from the operation surface.

なお、タッチバー82の右側でタッチバー82の最も近くに配置された回転操作部材としてサブ電子ダイヤル73が配置されている。グリップ部90を保持した手の親指で時計回りにこのサブ電子ダイヤル73を回すと、その親指で誤ってタッチバー82のキートップ右側部82Rに触れてしまうことが考えられる。回転操作部材でなくとも、タッチバー82側に操作指を近づけるスライド操作を受付可能なスライドスイッチがタッチバー82の近くに配置されている場合にも、同様の誤接触が生じる。さらに、タッチバー82の右側には、どの操作部材よりもタッチバー82に近い位置(タッチバー82の右側において、他のどの操作部材よりも左側の位置)に、親指でいずれの操作部材も操作していない場合に親指を置くためのサムレスト部91がある。そして、サムレスト部91から少し指を動かすだけで誤ってキートップ右側部82Rに触れてしまうことがある。従って、キートップ右側部82Rへのタッチ操作によってロック状態が解除されると、タッチバー82に対するユーザーの意図しないタッチ操作によって、ロック状態が解除されてしまい、ユーザーの意図しない設定変更が行われてしまうおそれがある。このため、キートップ右側部82Rへのタッチ操作は、ロック状態を解除するためのトリガー操作として用いていない。すなわち、右側部82Rに対する0.5秒のロングタッチがあってもロック状態から有効状態への切り替えは行わず、右側部82Rに対する2秒のロングタッチがあっても有効状態からロック状態への切り替えは行わない。   Note that a sub electronic dial 73 is disposed as a rotary operation member disposed on the right side of the touch bar 82 and closest to the touch bar 82. When the sub electronic dial 73 is rotated clockwise with the thumb of the hand holding the grip portion 90, the thumb may erroneously touch the key top right portion 82R of the touch bar 82. Similar erroneous contact occurs even when a slide switch that can accept a slide operation for bringing an operation finger closer to the touch bar 82 is arranged near the touch bar 82, even if it is not a rotary operation member. Furthermore, on the right side of the touch bar 82, no operation member is operated with the thumb at a position closer to the touch bar 82 than any of the operation members (on the right side of the touch bar 82 and to the left of any other operation member). There is a thumb rest 91 for putting the thumb in case. Then, a slight movement of the finger from the thumb rest portion 91 may erroneously touch the key top right portion 82R. Therefore, when the locked state is released by a touch operation on the key top right portion 82R, the locked state is released by a user's unintended touch operation on the touch bar 82, and a setting change unintended by the user is performed. There is a risk. For this reason, the touch operation on the key top right portion 82R is not used as a trigger operation for releasing the locked state. That is, even if there is a 0.5 second long touch on the right part 82R, switching from the locked state to the valid state is not performed, and even if there is a two second long touch on the right part 82R, switching from the valid state to the locked state is performed. Is not performed.

このように、タッチバー82のタッチ面のうち左側にロック状態/有効状態を切り替える操作領域を設けることには、重要な意味がある。   Thus, providing the operation area for switching between the locked state and the enabled state on the left side of the touch surface of the touch bar 82 has an important meaning.

図4(a)、(b)を用いて顔検出・器官検出について説明する。   The face detection / organ detection will be described with reference to FIGS.

図4(a)は、撮像部22で撮像した画像、または記録媒体200に記録された画像を再生した画像から、顔検出部24aで顔の領域を検出し、検出した顔の領域を示す顔枠401を画像に重畳して表示した場合の表示部28における表示例である。顔検出部24aでは画像から人の顔を検出する。このとき顔の大きさ、顔の向きなども判断する事が可能である。ユーザーはこれらの情報を基にAFの対象となる主被写体や、色補正などの対象となる被写体として、顔の領域をタッチパネル70aへのタッチ操作で指定(選択)することができる。   FIG. 4A illustrates a face area detected by the face detection unit 24 a from an image captured by the imaging unit 22 or an image reproduced from the image recorded on the recording medium 200, and a face indicating the detected face area. 5 is a display example on the display unit when a frame 401 is displayed while being superimposed on an image. The face detection unit 24a detects a human face from the image. At this time, it is also possible to determine the size of the face, the direction of the face, and the like. The user can designate (select) a face area as a main subject to be subjected to AF or a subject to be subjected to color correction or the like by a touch operation on the touch panel 70a based on these pieces of information.

図4(b)は、撮像部22で撮像した画像、または記録媒体200に記録された画像を再生した画像から、顔検出部24aと器官検出部24bで顔と器官を検出し、検出した顔の器官領域を示す器官枠402と403を画像に重畳して表示した場合の表示例である。器官枠402は、画面に向かって左側の瞳の領域を示す指標である。器官枠403は、画面に向かって右側の瞳の領域を示す指標である。これらの情報をもとに、ユーザーは器官の大きさと向きを判断することができ、検出された器官領域をタッチ操作で指定(選択)することができる。   FIG. 4B illustrates a face and an organ detected by the face detection unit 24a and the organ detection unit 24b from an image captured by the imaging unit 22 or an image reproduced from an image recorded on the recording medium 200, and the detected face is detected. 6 is a display example in a case where organ frames 402 and 403 indicating the organ regions are displayed so as to be superimposed on an image. The organ frame 402 is an index indicating the area of the pupil on the left side of the screen. The organ frame 403 is an index indicating a pupil region on the right side of the screen. Based on these pieces of information, the user can determine the size and orientation of the organ, and can specify (select) the detected organ area by a touch operation.

顔検出部24aと器官検出部24bで顔とその器官、例えば左目と右目が検出された場合、タッチダウンまたはタッチアップにおけるタッチ位置が顔領域、左目領域、右目領域の何れであるかに基づいて領域指定を行うことが考えられる。なお、ここで顔領域とは、顔領域のうち左目領域でも右目領域でもない領域のことである。しかしタッチダウンまたはタッチアップのタッチ操作では、ユーザーは意図通りの領域をうまく指定できない場合がある。例えば、ユーザーが右目の領域を指定しようとして右目領域内をタッチしたつもりでも、実際には少しずれて右目領域の外側をタッチしてしまい、顔全体、または左目が指定されてしまう可能性がある。この問題は、検出されている顔や器官が小さい場合や、LVや動画のように画像全体における被写体の位置や大きさが変動する場合に、より顕著である。また、ユーザーの意図通りの領域がうまく指定できない要因としては、瞳や顔のように、小さい指定対象を指定する場合、タッチした指で指定対象が隠れてしまい、上手く意図通りの位置をタッチできているのか確認することが難しいことも挙げられる。これに対し本実施形態ではタッチバー82を用いることで、指定対象が指で隠れることなく、ユーザーは意図通りの領域を、より確実に指定できるようにする。   When a face and its organs, for example, a left eye and a right eye, are detected by the face detection unit 24a and the organ detection unit 24b, based on whether the touch position in touch down or touch up is a face area, a left eye area, or a right eye area. It is conceivable to specify an area. Here, the face area is an area of the face area that is neither the left eye area nor the right eye area. However, in the touch operation of touch-down or touch-up, the user may not be able to specify the intended region well. For example, even if the user intends to specify the right eye area and touches the inside of the right eye area, the user actually touches the outside of the right eye area with a slight deviation, and the entire face or the left eye may be specified . This problem is more remarkable when the detected face or organ is small, or when the position or size of the subject in the entire image fluctuates like an LV or a moving image. Also, the reason that the area that the user intended can not be specified well is that when specifying a small target such as the pupil or face, the specified target is hidden by the touched finger, and the user can successfully touch the position as intended. It is also difficult to confirm that they are running. On the other hand, in the present embodiment, by using the touch bar 82, the user can more surely specify the intended area without hiding the specified object with the finger.

図5は顔検出部24aおよび器官検出部24bが検出した顔およびその器官等を管理するために記録された顔およびその器官等のデータの一例である。例えば図5ではデジタルカメラ100が図4(a)、(b)において認識した顔に関するデータを15個図示している。このデータは不揮発性メモリ56等に記録されている。   FIG. 5 is an example of face and organ data recorded for managing the face and its organs detected by the face detection unit 24a and the organ detection unit 24b. For example, FIG. 5 shows fifteen pieces of data relating to the face recognized by the digital camera 100 in FIGS. 4A and 4B. This data is recorded in the nonvolatile memory 56 or the like.

顔番号503は撮像部22で撮像された画像に映る顔を示す識別子である。画像に複数の顔が映っていた場合この識別子は顔ごとに異なるようにそれぞれ設定する。   The face number 503 is an identifier indicating a face appearing in the image captured by the imaging unit 22. If a plurality of faces are shown in the image, this identifier is set differently for each face.

X座標504は顔番号503が示す顔枠401のX座標である。Y座標505は顔番号503が示す顔枠401のY座標である。X座標504およびY座標505は顔枠401の画面に向かって左上にある頂点の座標を示す。   The X coordinate 504 is the X coordinate of the face frame 401 indicated by the face number 503. The Y coordinate 505 is the Y coordinate of the face frame 401 indicated by the face number 503. The X coordinate 504 and the Y coordinate 505 indicate the coordinates of the vertex at the upper left of the face frame 401 when viewed from the screen.

幅506は顔番号503が示す顔の顔枠401の幅である。高さ507は顔番号503が示す顔の顔枠401の高さである。   The width 506 is the width of the face frame 401 of the face indicated by the face number 503. The height 507 is the height of the face frame 401 of the face indicated by the face number 503.

第一の瞳508は画面に向かって左にある瞳(器官枠402)が検出されたか否かを示すデータである。例えば器官枠402が検出された場合は真、検出されなかった場合は偽が第一の瞳508に格納される。第一の瞳508に偽が格納された場合、後述するX座標509〜高さ512に数値は格納されない。   The first pupil 508 is data indicating whether a pupil (organ frame 402) on the left side of the screen is detected. For example, true is stored in the first pupil 508 when the organ frame 402 is detected, and false when it is not detected. When false is stored in the first pupil 508, no numerical value is stored in the X coordinate 509 to the height 512 described later.

X座標509は第一の瞳508が示す器官枠402のX座標である。Y座標510は第一の瞳508が示す器官枠402のY座標である。X座標509およびY座標510は器官枠402の画面に向かって左上にある頂点の座標である。   The X coordinate 509 is the X coordinate of the organ frame 402 indicated by the first pupil 508. The Y coordinate 510 is the Y coordinate of the organ frame 402 indicated by the first pupil 508. The X coordinate 509 and the Y coordinate 510 are the coordinates of the vertex at the upper left of the screen of the organ frame 402.

幅511は第一の瞳508が示す瞳の器官枠402の幅である。高さ512は第一の瞳508が示す瞳の器官枠402の高さである。   The width 511 is the width of the pupil organ frame 402 indicated by the first pupil 508. The height 512 is the height of the pupil organ frame 402 indicated by the first pupil 508.

第二の瞳513は画面に向かって右にある瞳(器官枠403)が検出されたか否かを示すデータである。例えば器官枠403が検出された場合は真、検出されなかった場合は偽が第二の瞳513に格納される。   The second pupil 513 is data indicating whether or not the pupil (organ frame 403) on the right side of the screen has been detected. For example, true is stored in the second pupil 513 when the organ frame 403 is detected, and false when it is not detected.

X座標514は第二の瞳513が示す器官枠403のX座標である。Y座標515は第二の瞳513が示す器官枠403のY座標である。X座標514およびY座標515は器官枠403の画面に向かって左上にある頂点の座標である。   The X coordinate 514 is the X coordinate of the organ frame 403 indicated by the second pupil 513. The Y coordinate 515 is the Y coordinate of the organ frame 403 indicated by the second pupil 513. The X coordinate 514 and the Y coordinate 515 are the coordinates of the vertex at the upper left of the screen of the organ frame 403.

幅516は第二の瞳513が示す瞳の器官枠403の幅である。高さ517は第二の瞳513が示す瞳の器官枠403の高さである。   The width 516 is the width of the pupil organ frame 403 indicated by the second pupil 513. The height 517 is the height of the pupil organ frame 403 indicated by the second pupil 513.

他にもデータベースには例えば顔の向きおよび他の器官の位置等の顔に関するデータが記録されている。   In addition, data relating to the face such as the orientation of the face and the position of other organs is recorded in the database.

図6はデジタルカメラ100におけるライブビュー(LV)撮影モードのフローチャートを示す。この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開してシステム制御部50が実行することにより実現する。   FIG. 6 shows a flowchart of a live view (LV) shooting mode in the digital camera 100. This processing is realized by expanding the program recorded in the nonvolatile memory 56 into the system memory 52 and executing the program by the system control unit 50.

本処理はシステム制御部50がLV撮影モードや再生モード等において画像に顔枠を表示している場合、ユーザーがタッチバー82をタッチダウンしたことをトリガーに図6の処理が開始されるものとする。顔枠の表示は、例えばユーザがタッチパネル70aを用いて被写体の顔をタッチすることおよびシステム制御部50が画像処理部24を用いて被写体の顔を認識し任意の顔に顔枠を表示すること等によってなされる。さらに他にもユーザーがタッチバー82に対して右タップでも左タップでもないタップをすることによって被写体に顔枠を表示する方法を採用してもよい。   In the present process, when the system control unit 50 displays a face frame on an image in the LV shooting mode or the playback mode, the process of FIG. 6 is started by triggering that the user touches down the touch bar 82. . The display of the face frame is, for example, that the user touches the face of the subject using the touch panel 70a, and that the system control unit 50 recognizes the face of the subject using the image processing unit 24 and displays the face frame on an arbitrary face. And so on. Further, a method of displaying a face frame on a subject by performing a tap other than a right tap and a left tap on the touch bar 82 may be adopted.

また本フローチャートの説明を図7を用いながら説明する。図7はデジタルカメラ100の表示画面の一例を示す図である。本フローチャートが開始された状態では、表示部28は図7(a)の状態である。ただし、図7は説明のために表示部28とタッチバー82を単純化して図示しているため、表示部28とタッチバー82のサイズ関係は正確ではない。   The description of the flowchart will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of a display screen of the digital camera 100. When the flowchart is started, the display unit 28 is in the state of FIG. However, since FIG. 7 shows the display unit 28 and the touch bar 82 in a simplified manner for explanation, the size relationship between the display unit 28 and the touch bar 82 is not accurate.

まず、ユーザがタッチバー82をスライド操作(タッチムーブ)する場合を説明する。   First, a case where the user performs a slide operation (touch move) on the touch bar 82 will be described.

ステップS601において、システム制御部50はタッチバー82になされた操作がタッチムーブか否かを判断する。タッチムーブであると判断した場合、システム制御部50はステップS602の処理を行う。タッチムーブではないと判断した場合、システム制御部50はステップS607の処理を行う。   In step S601, the system control unit 50 determines whether the operation performed on the touch bar 82 is a touch move. If it is determined that the touch move is performed, the system control unit 50 performs the process of step S602. If it is determined that the touch move is not performed, the system control unit 50 performs the process of step S607.

ステップS602において、システム制御部50はタッチムーブ状態に遷移する。タッチムーブ状態とは、ユーザはタッチムーブによるスライド操作中であるため、システム制御部50がタッチムーブ(スライド操作)を認識し、タップ操作を認識しない状態である。すでにタッチムーブ状態であった場合、システム制御部50は本ステップの処理を行わなくともよい。   In step S602, the system control unit 50 transitions to the touch move state. The touch move state is a state in which the system control unit 50 recognizes a touch move (slide operation) and does not recognize a tap operation because the user is performing a slide operation by the touch move. If it is already in the touch move state, the system control unit 50 need not perform the process of this step.

ステップS603において、システム制御部50はタッチムーブされた方向が左方向か右方向かを判断する。タッチムーブされた方向が左方向の場合、システム制御部50はステップS604の処理を行う。タッチムーブされた方向が右方向の場合、システム制御部50はステップS605の処理を行う。   In step S603, the system control unit 50 determines whether the touch-move direction is leftward or rightward. If the touch-move direction is the left direction, the system control unit 50 performs the process of step S604. When the touch-move direction is the right direction, the system control unit 50 performs the process of step S605.

ステップS604において、システム制御部50はタッチバー82において右方向へのスライドを検出した場合、図7(a)から図7(b)の状態に遷移するように、現在選択している顔から、画面に向かって右に存在する顔に顔枠701を移動する。例えば、1回の右方向へのスライドにおいて、現在選択している顔領域のX座標以上であり、かつ現在選択している顔領域と最も近いX座標をもつ顔領域に、システム制御部50は顔枠701を重畳する。また現在選択している顔領域よりも画面に向かって右側に顔が存在しない場合は、システム制御部50は顔枠701を移動しない処理または顔領域のX座標が最も小さい顔領域に顔枠701を重畳する処理等を行う。   In step S604, when the system control unit 50 detects a rightward slide on the touch bar 82, the system control unit 50 changes the screen from the currently selected face to the state shown in FIG. The face frame 701 is moved to the face existing on the right side toward. For example, in one slide to the right, the system control unit 50 assigns a face area that is equal to or larger than the X coordinate of the currently selected face area and that has the closest X coordinate to the currently selected face area. The face frame 701 is superimposed. If the face does not exist on the right side of the screen with respect to the currently selected face area, the system control unit 50 performs processing for not moving the face frame 701 or sets the face frame 701 to the face area where the X coordinate of the face area is the smallest. Is performed.

ステップS605において、システム制御部50はタッチバー82において左方向へのスライドを検出した場合、逆に、現在選択している顔から、画面に向かって左に存在する顔に顔枠701を移動する。例えば、1回の左方向へのスライドにおいて、現在選択している顔領域のX座標以下であり、かつ現在選択している顔領域と最も近いX座標をもつ顔領域に、システム制御部50は顔枠701を重畳する。また現在選択している顔領域よりも画面に向かって左側に顔が存在しない場合は、システム制御部50は顔枠701を移動しない処理または顔領域のX座標が最も大きい顔領域に顔枠701を重畳する処理等を行う。   In step S605, when the system control unit 50 detects a leftward slide on the touch bar 82, the system control unit 50 moves the face frame 701 from the currently selected face to a face present on the left side of the screen. For example, in one slide to the left, the system control unit 50 sets the face area having the X coordinate equal to or less than the X coordinate of the currently selected face area and closest to the currently selected face area to the face area. The face frame 701 is superimposed. If no face is present on the left side of the screen with respect to the currently selected face area, the system control unit 50 performs processing for not moving the face frame 701 or sets the face frame 701 to the face area having the largest X coordinate of the face area. Is performed.

ステップS606において、システム制御部50はタッチアップされたか否かを判断する。タッチアップされていないと判断した場合、システム制御部50はステップS601の処理に戻り、タッチムーブ状態を継続する。タッチアップされたと判断した場合、システム制御部50は処理を終了する。   In step S606, the system control unit 50 determines whether a touch-up has been performed. If it is determined that the touch-up has not been performed, the system control unit 50 returns to the process of step S601 and continues the touch-move state. If it is determined that the touch-up has been performed, the system control unit 50 ends the processing.

ここまで、ユーザーがスライド操作をする場合におけるシステム制御部50の処理を説明した。これから、ユーザーがスライド操作しない場合(ステップS601においてNOだった場合)におけるシステム制御部50の処理を説明する。   So far, the processing of the system control unit 50 when the user performs the slide operation has been described. Hereinafter, the processing of the system control unit 50 when the user does not perform the slide operation (NO in step S601) will be described.

ステップS607において、システム制御部50はタッチムーブ状態か否かを判断する。タッチムーブ状態であった場合、システム制御部50はタッチムーブ状態であると判断して、ステップS606の処理を行う。タッチムーブ状態ではない場合、システム制御部50はタッチムーブ状態ではないと判断して、ステップS608の処理を行う。   In step S607, the system control unit 50 determines whether or not it is in the touch move state. If the state is the touch move state, the system control unit 50 determines that the state is the touch move state, and performs the process of step S606. If it is not in the touch move state, the system control unit 50 determines that it is not in the touch move state, and performs the process of step S608.

ステップS608において、システム制御部50はタッチアップされたか否かを判断する。タッチアップされたと判断した場合、システム制御部50はステップS609の処理を行う。タッチアップされていないと判断した場合、システム制御部50はステップS601の処理に戻り、ユーザの操作を待つ状態を継続する。   In step S608, the system control unit 50 determines whether a touch-up has been performed. If it is determined that the touch-up has been performed, the system control unit 50 performs the process of step S609. If it is determined that the touch-up has not been performed, the system control unit 50 returns to the process of step S601 and continues to wait for a user operation.

ステップS609において、システム制御部50はタッチバー82におけるタッチアップを検出した位置を判断する。キートップ右側部82R(タッチセンサー電極302c)においてタッチアップされた(右タップ)と判断した場合、システム制御部50はステップS610の処理を行う。キートップ左側部82L(タッチセンサー電極302a)においてタッチアップされた(左タップ)と判断した場合、システム制御部50はステップS611の処理を行う。その他(タッチセンサー電極302b)においてタッチアップされたと判断した場合、システム制御部50はステップS612の処理を行う。   In step S609, the system control unit 50 determines the position where the touch-up on the touch bar 82 is detected. If it is determined that the touch-up has been performed (right tap) on the right key top portion 82R (the touch sensor electrode 302c), the system control unit 50 performs the process of step S610. When it is determined that the touch-up has been performed (left tap) on the key top left portion 82L (the touch sensor electrode 302a), the system control unit 50 performs the process of step S611. If it is determined that the touch-up has been performed on the other (the touch sensor electrode 302b), the system control unit 50 performs the process of step S612.

ステップS610において、器官枠702が表示されていない場合、図7(b)に示すように、システム制御部50は画面に向かって右側に存在する瞳を選択し、処理を終了する。例えば、システム制御部50はデータベースに記録している第一の瞳と第二の瞳のX座標を比較し、より大きいX座標である瞳に器官枠702を重畳する。また、すでに器官枠702が表示されている場合、システム制御部50は器官枠702を他方の瞳に重畳する処理または器官枠702を画面から消去する処理等を行う。   If the organ frame 702 is not displayed in step S610, as shown in FIG. 7B, the system control unit 50 selects the pupil existing on the right side of the screen, and ends the processing. For example, the system control unit 50 compares the X coordinates of the first pupil and the second pupil recorded in the database, and superimposes the organ frame 702 on the pupil having the larger X coordinate. When the organ frame 702 is already displayed, the system control unit 50 performs a process of superimposing the organ frame 702 on the other pupil or a process of deleting the organ frame 702 from the screen.

ステップS611において、器官枠702が表示されていない場合、システム制御部50は画面に向かって左側に存在する瞳を選択し、処理を終了する。例えば、システム制御部50はデータベースに記録している第一の瞳と第二の瞳のX座標を比較し、より小さいX座標である瞳に器官枠702を重畳する。また、すでに器官枠702が表示されている場合、システム制御部50は器官枠702を他方の瞳に重畳する処理または器官枠702を画面から消去する処理等を行う。   If the organ frame 702 is not displayed in step S611, the system control unit 50 selects a pupil existing on the left side of the screen and ends the processing. For example, the system control unit 50 compares the X coordinates of the first pupil and the second pupil recorded in the database, and superimposes the organ frame 702 on the pupil having the smaller X coordinate. When the organ frame 702 is already displayed, the system control unit 50 performs a process of superimposing the organ frame 702 on the other pupil or a process of deleting the organ frame 702 from the screen.

ステップS612において、システム制御部50は表示部28に器官枠702を表示しているか否かを判断する。器官枠702を表示している場合、システム制御部50はステップS613の処理を行う。器官枠702を表示していない場合、システム制御部50はステップS614の処理を行う。   In step S612, the system control unit 50 determines whether or not the organ frame 702 is displayed on the display unit 28. When the organ frame 702 is displayed, the system control unit 50 performs the process of step S613. When the organ frame 702 is not displayed, the system control unit 50 performs the process of step S614.

ステップS613において、システム制御部50は器官枠702を画面から消去する処理を行い、処理を終了する。   In step S613, the system control unit 50 performs a process of deleting the organ frame 702 from the screen, and ends the process.

ステップS610において、システム制御部50は顔枠701を画面から消去する処理を行い、処理を終了する。   In step S610, the system control unit 50 performs a process of deleting the face frame 701 from the screen, and ends the process.

本フローチャートにおいては、ユーザーはスライド操作で顔の選択およびタップ操作で瞳の選択ができる。なお、タップ操作とスライド操作の処理を入れ替えてもよい。すなわち、ユーザーはスライド操作で瞳の選択およびタップ操作で顔の選択ができるようにしてもよい。   In this flowchart, the user can select a face by a slide operation and a pupil by a tap operation. The processes of the tap operation and the slide operation may be interchanged. That is, the user may be able to select a pupil by a slide operation and a face by a tap operation.

なお、ステップS608において、システム制御部50はタッチアップされたか否かを判断した後に所定の時間が経過したか否かを判断してもよい。所定の時間が経過していた場合、システム制御部50はタッチバー82による操作を行う意思がユーザーにはないと判断して処理を終了してもよい。例えば所定の時間は初期設定では10秒と規定され、ユーザーが任意に変更できるようにする。所定の時間が経過していなかった場合、システム制御部50はタッチアップされたか否かの判断に即した処理を行う。   In step S608, the system control unit 50 may determine whether a predetermined time has elapsed after determining whether the touch-up has been performed. If the predetermined time has elapsed, the system control unit 50 may determine that the user does not intend to perform an operation using the touch bar 82 and end the process. For example, the predetermined time is defined as 10 seconds in the initial setting, so that the user can arbitrarily change it. If the predetermined time has not elapsed, the system control unit 50 performs a process according to the determination as to whether or not the touch-up has been performed.

さらに、図6においてカメラを横に構えて撮影した場合を説明したが、カメラを縦に構えて撮影した場合も同様の処理が可能である。この場合において、システム制御部50は顔枠および器官枠のX座標ではなくY座標を参照して処理を行う。例えば、図6のステップS610においてカメラが横に構えられていた場合、システム制御部50はデータベースに記録している第一の瞳と第二の瞳のY座標を比較し、より小さいY座標である瞳に器官枠702を重畳する。   Further, FIG. 6 illustrates the case where the camera is shot with the camera held horizontally, but the same processing can be performed when the camera is shot with the camera held vertically. In this case, the system control unit 50 performs the processing with reference to the Y coordinate instead of the X coordinate of the face frame and the organ frame. For example, when the camera is held horizontally in step S610 in FIG. 6, the system control unit 50 compares the Y coordinates of the first pupil and the second pupil recorded in the database, and uses the smaller Y coordinate. An organ frame 702 is superimposed on a certain pupil.

本実施例において、タッチバー82はタッチパネル70aとは別の部材として説明したが、タッチバー82はタッチパネル70a上にGUIとして表示して代替してもよい。このGUIとしてタッチバーを表示している場合、タッチバーのGUIはタッチバー操作が無効な状態には表示しないと設定にしてもよい。なお、GUIバーは図8に示すようにグリップ部90側(右手親指が届くあたり)に表示すると、ユーザーの指が表示部28上に重なる範囲が狭くなるため、タッチバー82とほぼ同様の効果が得られる。図8(a)のタッチバーがその一例である。こうすることによってタッチバーをタッチパネル上のGUI部材としても狙った顔や瞳を選択することができる。   In the present embodiment, the touch bar 82 has been described as a member different from the touch panel 70a, but the touch bar 82 may be displayed as a GUI on the touch panel 70a and replaced. When a touch bar is displayed as this GUI, the GUI of the touch bar may be set not to be displayed when the touch bar operation is invalid. When the GUI bar is displayed on the grip section 90 side (at the point where the right thumb can reach) as shown in FIG. can get. The touch bar in FIG. 8A is one example. By doing so, it is possible to select a target face or pupil by using the touch bar as a GUI member on the touch panel.

図8(a)は顔が選択されている状態、図8(b)は瞳が選択されている状態、図8(c)は図8(a)の顔選択、または図8(b)の瞳選択の状態から右方向へのタッチバーのスライド操作によって向かって右隣の顔に選択が移動した画面表示例である。図8(d)は顔選択が解除されている状態でタッチバーは非表示となっている。タッチバーを表示する場所はタッチパネル上でなるべくグリップ側の位置に表示する。またタッチバーは表示部28に映る顔に重ならないように配置される。   8A shows a state in which a face is selected, FIG. 8B shows a state in which a pupil is selected, FIG. 8C shows a face selected in FIG. 8A, or FIG. It is a screen display example in which the selection was moved to the face on the right side by sliding the touch bar to the right from the pupil selection state. FIG. 8D shows a state in which the face bar is not selected and the touch bar is not displayed. The touch bar is displayed on the touch panel as close to the grip as possible. Further, the touch bar is arranged so as not to overlap the face reflected on the display unit 28.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

Claims (20)

表示部に表示された画像から顔および該顔に含まれる器官領域を検出する検出手段と、
前記表示部とは別の部材である、第一の操作領域と第二の操作領域とを有するライン状の操作部に対するタッチ操作を検知するタッチ検知手段と、
表示手段によって表示された画像から前記検出手段によって検出された顔を選択する選択手段と、
前記第一の操作領域に対するタッチ操作に応じて、前記選択手段によって選択された第一の顔に含まれる第一の器官領域を選択し、前記第二の操作領域に対するタッチ操作に応じて、前記選択手段によって選択された第一の顔に含まれる第二の器官領域を選択するように制御する制御手段と、
を有することを特徴とする電子機器。
Detecting means for detecting a face and an organ region included in the face from the image displayed on the display unit;
The display unit is a separate member, a touch detection unit that detects a touch operation on a linear operation unit having a first operation area and a second operation area,
Selection means for selecting a face detected by the detection means from the image displayed by the display means,
In response to a touch operation on the first operation area, select a first organ area included in the first face selected by the selection means, according to a touch operation on the second operation area, Control means for controlling to select a second organ region included in the first face selected by the selection means,
An electronic device comprising:
前記制御手段は、選択した器官領域を示す指標を、前記表示手段によって表示された前記画像に重畳して、表示するように制御することを特徴とする請求項1に記載の電子機器。   2. The electronic device according to claim 1, wherein the control unit controls to display an index indicating the selected organ region in a manner superimposed on the image displayed by the display unit. 前記第一の器官領域は前記表示手段に表示された前記第一の顔に対して左側の目であり、前記第二の器官領域は前記表示手段に表示された前記第一の顔に対して右側の目であることを特徴とする請求項1または2に記載の電子機器。   The first organ area is the left eye with respect to the first face displayed on the display means, and the second organ area is relative to the first face displayed on the display means. The electronic device according to claim 1, wherein the electronic device is a right eye. 前記第一の操作領域は前記操作部において前記表示手段に表示された前記第一の顔に対して左方向であり、前記第二の操作領域は前記操作部において前記表示手段に表示された前記第一の顔に対して右方向であることを特徴とする請求項1から3のいずれか1項に記載の電子機器。   The first operation area is in a leftward direction with respect to the first face displayed on the display unit in the operation unit, and the second operation area is displayed on the display unit in the operation unit. The electronic device according to any one of claims 1 to 3, wherein the electronic device is directed rightward with respect to the first face. さらに前記操作部は第三の操作領域を含み、
前記制御手段は、前記第三の操作領域に対するタッチ操作に応じて、前記第一の顔の器官領域が選択されている場合、前記第一の顔の器官領域の選択を解除するように制御し、前記第一の器官領域または前記第二の器官領域が選択されていない場合、前記第一の顔の選択を解除するように制御する
ことを特徴とする請求項1から4のいずれか1項に記載の電子機器。
Further, the operation unit includes a third operation area,
The control means performs control so as to cancel the selection of the first facial organ region when the first facial organ region is selected according to a touch operation on the third operation region. 5. The apparatus according to claim 1, wherein when the first organ area or the second organ area is not selected, control is performed so as to cancel the selection of the first face. 6. An electronic device according to claim 1.
前記制御手段は、前記操作部の操作領域を跨ぐスライド操作に応じて、前記第一の顔の選択を解除し、前記スライド操作に応じた第二の顔を選択するように制御する
ことを特徴とする請求項1から5のいずれか1項に記載の電子機器。
The control means performs control so as to cancel the selection of the first face and select a second face according to the slide operation in response to a slide operation across the operation area of the operation unit. The electronic device according to any one of claims 1 to 5, wherein
前記第二の顔は、前記第一の顔に対して前記スライド操作した方向の最も近くにある顔であることを特徴とする請求項6に記載の電子機器。   The electronic device according to claim 6, wherein the second face is a face closest to the first face in the direction in which the slide operation is performed. 前記操作部は、前記表示部よりグリップ部側に位置する請求項1から7のいずれか1項に記載の電子機器。   The electronic device according to claim 1, wherein the operation unit is located closer to a grip unit than the display unit. 画像から顔および該顔に含まれる器官領域を検出する検出手段と、
前記顔に重ならないように配置された、第一の操作領域と第二の操作領域を有するライン状の操作面に対するタッチ操作を検知するタッチ検知手段と、
表示手段によって表示された画像から前記検出手段によって検出された顔を選択する選択手段と、
前記第一の操作領域に対するタッチ操作に応じて、前記選択手段によって選択された第一の顔に含まれる第一の器官領域を選択し、前記第二の操作領域に対するタッチ操作に応じて、前記選択手段によって選択された第一の顔に含まれる第二の器官領域を選択するように制御する制御手段と、
を有することを特徴とする電子機器。
Detecting means for detecting a face and an organ region included in the face from the image;
A touch detection unit that detects a touch operation on a linear operation surface having a first operation area and a second operation area, which is arranged so as not to overlap the face,
Selection means for selecting a face detected by the detection means from the image displayed by the display means,
In response to a touch operation on the first operation area, select a first organ area included in the first face selected by the selection means, according to a touch operation on the second operation area, Control means for controlling to select a second organ region included in the first face selected by the selection means,
An electronic device comprising:
前記制御手段は、選択した器官領域を示す指標を、前記表示手段によって表示された前記画像に重畳して、表示するように制御することを特徴とする請求項9に記載の電子機器。   The electronic device according to claim 9, wherein the control unit controls to display an index indicating the selected organ region in a manner superimposed on the image displayed by the display unit. 前記第一の器官領域は前記表示手段に表示された前記第一の顔に対して左側の目であり、前記第二の器官領域は前記表示手段に表示された前記第一の顔に対して右側の目であることを特徴とする請求項9または10に記載の電子機器。   The first organ area is the left eye with respect to the first face displayed on the display means, and the second organ area is relative to the first face displayed on the display means. The electronic device according to claim 9, wherein the electronic device is a right eye. 前記第一の操作領域は前記操作面において前記表示手段に表示された前記第一の顔に対して左方向であり、前記第二の操作領域は前記操作面において前記表示手段に表示された前記第一の顔に対して右方向であることを特徴とする請求項9から11のいずれか1項に記載の電子機器。   The first operation area is a leftward direction with respect to the first face displayed on the display means on the operation surface, and the second operation area is displayed on the display means on the operation surface. The electronic device according to claim 9, wherein the electronic device is directed rightward with respect to the first face. さらに前記操作面は第三の操作領域を含み、
前記制御手段は、前記第三の操作領域に対するタッチ操作に応じて、前記第一の顔の器官領域が選択されている場合、前記第一の顔の器官領域の選択を解除するように制御し、前記第一の器官領域または前記第二の器官領域が選択されていない場合、前記第一の顔の選択を解除するように制御する
ことを特徴とする請求項9から12のいずれか1項に記載の電子機器。
Further, the operation surface includes a third operation area,
The control means performs control so as to cancel the selection of the first facial organ region when the first facial organ region is selected according to a touch operation on the third operation region. 13. The method according to claim 9, wherein when the first organ area or the second organ area is not selected, control is performed so as to cancel the selection of the first face. An electronic device according to claim 1.
前記制御手段は、前記操作面の操作領域を跨ぐスライド操作に応じて、前記第一の顔の選択を解除し、前記スライド操作に応じた第二の顔を選択するように制御する
ことを特徴とする請求項9から13のいずれか1項に記載の電子機器。
The control means performs control so as to release the selection of the first face and select a second face according to the slide operation in response to a slide operation across an operation area of the operation surface. The electronic device according to any one of claims 9 to 13.
前記第二の顔は、前記第一の顔に対して前記スライド操作した方向の最も近くにある顔であることを特徴とする請求項14に記載の電子機器。   The electronic device according to claim 14, wherein the second face is a face closest to the first face in the direction in which the slide operation is performed. 前記操作面は前記表示手段によってGUIとして表示され、表示部と一体に構成されているタッチパネルによって操作を受け付けることを特徴とする請求項9から15のいずれか1項に記載の電子機器。   16. The electronic device according to claim 9, wherein the operation surface is displayed as a GUI by the display unit, and receives an operation by a touch panel integrated with a display unit. 前記操作面はタッチパネル上でグリップ部側に位置することを特徴とする請求項16に記載の電子機器。   17. The electronic device according to claim 16, wherein the operation surface is located on a grip portion side on the touch panel. 表示部に表示された画像から顔および該顔に含まれる器官領域を検出する検出手段と、
前記表示部とは別の部材である、第一の操作領域と第二の操作領域を有するライン状の操作部に対するタッチ操作を検知するタッチ検知手段と、
表示手段によって表示された画像から前記検出手段によって検出された顔を選択する選択手段と、を有する電子機器の制御方法であって、
前記第一の操作領域に対するタッチ操作に応じて、前記選択手段によって選択された第一の顔に含まれる第一の器官領域を選択するステップと、前記第二の操作領域に対するタッチ操作に応じて、前記選択手段によって選択された第一の顔に含まれる第二の器官領域を選択するステップと、
を有することを特徴とする電子機器の制御方法。
Detecting means for detecting a face and an organ region included in the face from the image displayed on the display unit;
The display unit is a separate member, a touch detection unit that detects a touch operation on a linear operation unit having a first operation area and a second operation area,
Selecting means for selecting a face detected by the detecting means from the image displayed by the display means, and a control method of an electronic device, comprising:
A step of selecting a first organ region included in the first face selected by the selection means in response to a touch operation on the first operation region; and Selecting a second organ region included in the first face selected by the selecting means,
A method for controlling an electronic device, comprising:
コンピュータを、請求項1から17のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit of the electronic device according to any one of claims 1 to 17. コンピュータを、請求項1から17のいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。   A computer-readable recording medium storing a program for causing a computer to function as each unit of the electronic device according to claim 1.
JP2018142904A 2018-07-30 2018-07-30 Electronic device, control method thereof, and program thereof Pending JP2020021174A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018142904A JP2020021174A (en) 2018-07-30 2018-07-30 Electronic device, control method thereof, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018142904A JP2020021174A (en) 2018-07-30 2018-07-30 Electronic device, control method thereof, and program thereof

Publications (1)

Publication Number Publication Date
JP2020021174A true JP2020021174A (en) 2020-02-06

Family

ID=69589841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018142904A Pending JP2020021174A (en) 2018-07-30 2018-07-30 Electronic device, control method thereof, and program thereof

Country Status (1)

Country Link
JP (1) JP2020021174A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6979738B1 (en) * 2021-03-26 2021-12-15 株式会社オープンエイト Servers and animation recommendation systems, animation recommendation methods, programs

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6979738B1 (en) * 2021-03-26 2021-12-15 株式会社オープンエイト Servers and animation recommendation systems, animation recommendation methods, programs

Similar Documents

Publication Publication Date Title
JP6742730B2 (en) Electronic device and control method thereof
US11240419B2 (en) Electronic device that can execute function in accordance with line of sight of user, method of controlling electronic device, and non-transitory computer readable medium
US10904442B2 (en) Image sensing apparatus with improved user operability when performing an enlarged display of a live view image and control method of image sensing apparatus
US10958826B2 (en) Electronic apparatus and control method for electronic apparatus
US11184528B2 (en) Electronic apparatus, control method therefor, and non-transitory computer readable medium
JP2021068208A (en) Electronic apparatus, control method for electronic apparatus, program, storage medium
JP7465129B2 (en) Imaging device, control method thereof, program, and storage medium
JP6701027B2 (en) Imaging device, control method thereof, and program
US11526208B2 (en) Electronic device and method for controlling electronic device
JP2020021174A (en) Electronic device, control method thereof, and program thereof
JP7446913B2 (en) Electronic devices, control methods for electronic devices, and programs
US11010000B2 (en) Electronic equipment having a touch operating member that can be operated while viewing display monitors
JP7129244B2 (en) ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, PROGRAM, STORAGE MEDIUM
JP2021012619A (en) Electronic apparatus and method for controlling the same
JP2020178232A (en) Electronic apparatus
JP6562832B2 (en) Electronic device and control method thereof
US11659278B2 (en) Electronic device
EP3731079B1 (en) Electronic device, control method of electronic device, program, and computer-readable storage medium
JP2020004295A (en) Electronic apparatus
EP4340381A1 (en) Image capturing device and method of controlling thereof
US20240080549A1 (en) Imaging device, control method of imaging device, and non-transitory computer readable medium
US20220357833A1 (en) Electronic apparatus, control method for electronic apparatus, and storage medium
US20240129622A1 (en) Electronic device and control method thereof
JP7195788B2 (en) Electronics
JP2018023068A (en) Electronic device, control method thereof, and program