JP2020021174A - Electronic device, control method thereof, and program thereof - Google Patents
Electronic device, control method thereof, and program thereof Download PDFInfo
- Publication number
- JP2020021174A JP2020021174A JP2018142904A JP2018142904A JP2020021174A JP 2020021174 A JP2020021174 A JP 2020021174A JP 2018142904 A JP2018142904 A JP 2018142904A JP 2018142904 A JP2018142904 A JP 2018142904A JP 2020021174 A JP2020021174 A JP 2020021174A
- Authority
- JP
- Japan
- Prior art keywords
- face
- touch
- electronic device
- area
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は顔や顔の器官を検出可能な電子機器に関する。 The present invention relates to an electronic device capable of detecting a face and a facial organ.
近年、被写体の顔を検出して合焦するオートフォーカス(AF)機能を有するデジタルカメラが知られている。さらに、被写体の顔を検出するだけでなく、顔の器官(例えば瞳など)検出し、その器官へAFできるデジタルカメラが知られている。 2. Description of the Related Art In recent years, a digital camera having an autofocus (AF) function of detecting a subject's face and focusing on the subject has been known. Further, there is known a digital camera which can not only detect a face of a subject but also detect an organ (for example, a pupil) of the face and perform AF on the organ.
例えば特許文献1では、ユーザーがタッチ操作した画面上の位置に応じて検出した顔にAFするか検出した瞳にAFするかを選択する技術が開示されている。 For example, Patent Literature 1 discloses a technique for selecting whether to perform AF on a detected face or AF on a detected pupil according to a position on a screen where a user performs a touch operation.
しかし例えば瞳のように画面上に映る被写体の大きさが小さい場合、ユーザーは顔や瞳をタッチ操作をすることによって正確に選択することは難しいという課題があった。そこで、本発明は上記課題を解決するために、画面上に映る被写体の大きさが小さい場合でも、被写体の部位を容易に選択できるようにすることを目的とする。 However, for example, when the size of a subject reflected on the screen like a pupil is small, there is a problem that it is difficult for a user to select a face or a pupil accurately by performing a touch operation. In view of the above, an object of the present invention is to make it possible to easily select a portion of a subject even when the size of the subject reflected on a screen is small.
上記目的を達成するために、本発明の電子機器は、表示部に表示された画像から顔および該顔に含まれる器官領域を検出する検出手段と、前記表示部とは別の部材である、第一の操作領域と第二の操作領域とを有するライン状の操作部に対するタッチ操作を検知するタッチ検知手段と、表示手段によって表示された画像から前記検出手段によって検出された顔を選択する選択手段と、前記第一の操作領域に対するタッチ操作に応じて、前記選択手段によって選択された第一の顔に含まれる第一の器官領域を選択し、前記第二の操作領域に対するタッチ操作に応じて、前記選択手段によって選択された第一の顔に含まれる第二の器官領域を選択するように制御する制御手段と、を有することを特徴とする。 In order to achieve the above object, the electronic device of the present invention is a detection unit that detects a face and an organ region included in the face from an image displayed on a display unit, and the display unit is a separate member. Touch detection means for detecting a touch operation on a linear operation unit having a first operation area and a second operation area, and selection for selecting a face detected by the detection means from an image displayed by a display means Means for selecting a first organ area included in the first face selected by the selecting means in accordance with a touch operation on the first operation area, and responding to a touch operation on the second operation area. Control means for controlling so as to select a second organ region included in the first face selected by the selection means.
本発明によれば画面上に映る被写体の大きさが小さい場合でも、被写体の部位を容易に選択できる。 ADVANTAGE OF THE INVENTION According to this invention, even when the magnitude | size of the subject reflected on a screen is small, the site | part of a subject can be selected easily.
<実施例1>
以下、図面を参照して本発明の好適な実施形態の一例を説明する。
<Example 1>
Hereinafter, an example of a preferred embodiment of the present invention will be described with reference to the drawings.
<デジタルカメラ100の外観図>
図1(a),(b)に、本発明を適用可能な電子機器の一例としてのデジタルカメラ100の外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。
<External view of
1A and 1B are external views of a
表示部28は、デジタルカメラ100の背面に設けられた表示部であり、画像や各種情報を表示する。タッチパネル70aは、表示部28の表示面(タッチ操作面)に対するタッチ操作を検出することができる。ファインダー外表示部43は、デジタルカメラ100の上面に設けられた表示部であり、シャッター速度や絞りをはじめとするデジタルカメラ100の様々な設定値を表示する。シャッターボタン61は撮影指示を行うための操作部材である。モード切替スイッチ60は、各種モードを切り替えるための操作部材である。端子カバー40は、デジタルカメラ100を外部機器に接続する接続ケーブル等とのコネクタ(不図示)を保護するカバーである。
The
メイン電子ダイヤル71は回転操作部材であり、メイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72は、デジタルカメラ100の電源のONとOFFを切り替える操作部材である。サブ電子ダイヤル73は回転操作部材であり、サブ電子ダイヤル73を回すことで、選択枠(カーソル)の移動や画像送りなどが行える。4方向キー74は、上、下、左、右部分をそれぞれ押し込み可能に構成され、4方向キー74の押した部分に応じた処理が可能である。SETボタン75は、押しボタンであり、主に選択項目の決定などに用いられる。
The main
動画ボタン76は、動画撮影(記録)の開始や停止の指示に用いられる。AEロックボタン77は押しボタンであり、撮影待機状態でAEロックボタン77を押下することにより、露出状態を固定することができる。拡大ボタン78は、撮影モードのライブビュー表示(LV表示)において拡大モードのONとOFFを切り替えるための操作ボタンである。拡大モードをONとしてからメイン電子ダイヤル71を操作することにより、ライブビュー画像(LV画像)の拡大や縮小を行える。再生モードにおいては、拡大ボタン78は、再生画像を拡大したり、その拡大率を増加させるたりするための操作ボタンとして機能する。再生ボタン79は、撮影モードと再生モードとを切り替えるための操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに移行し、記録媒体200(後述)に記録された画像のうち最新の画像を表示部28に表示させることができる。メニューボタン81はメニュー画面を表示させる指示操作を行うために用いられる押しボタンであり、メニューボタン81が押されると各種の設定が可能なメニュー画面が表示部28に表示される。ユーザーは、表示部28に表示されたメニュー画面と、4方向キー74やSETボタン75とを用いて直感的に各種設定を行うことができる。
The moving
タッチバー82(マルチファンクションバー:M−Fnバー)は、タッチ操作を受け付けることが可能なライン状のタッチ操作部材(ラインタッチセンサー)である。タッチバー82は、通常の握り方(メーカー推奨の握り方)でグリップ部90を握った右手の親指でタッチ操作可能(タッチ可能)な位置に配置されている。タッチバー82は、タッチバー82に対するタップ操作(タッチして所定期間以内に移動せずに離す操作)、左右へのスライド操作(タッチした後、タッチしたままタッチ位置を移動する操作)などを受け付け可能な受付部である。タッチバー82は、タッチパネル70aとは異なる操作部材であり、表示機能を備えていない。
The touch bar 82 (multifunction bar: M-Fn bar) is a linear touch operation member (line touch sensor) that can receive a touch operation. The
通信端子10は、デジタルカメラ100がレンズユニット150(後述;着脱可能)側と通信を行うための通信端子である。接眼部16は、接眼ファインダー17(覗き込み型のファインダー)の接眼部であり、ユーザーは、接眼部16を介して内部のEVF29(後述)に表示された映像を視認することができる。接眼検知部57は、接眼部16にユーザー(撮影者)が接眼しているか否かを検知する接眼検知センサーである。蓋202は、記録媒体200(後述)を格納するスロットの蓋である。グリップ部90は、ユーザーがデジタルカメラ100を構える際に右手で握りやすい形状とした保持部である。グリップ部90を右手の小指、薬指、中指で握ってデジタルカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン61とメイン電子ダイヤル71が配置されている。また、同じ状態で、右手の親指で操作可能な位置に、サブ電子ダイヤル73とタッチバー82が配置されている。サムレスト部91(親指待機位置)は、デジタルカメラ100の背面側の、どの操作部材も操作しない状態でグリップ部90を握った右手の親指を置きやすい箇所に設けられたグリップ部材である。サムレスト部91は、保持力(グリップ感)を高めるためのラバー部材などで構成される。
The
<デジタルカメラ100の構成ブロック図>
図2は、デジタルカメラ100の構成例を示すブロック図である。レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。通信端子6は、レンズユニット150がデジタルカメラ100側と通信を行うための通信端子であり、通信端子10は、デジタルカメラ100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、これら通信端子6,10を介してシステム制御部50と通信する。そして、レンズユニット150は、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1の制御を行う。また、レンズユニット150は、レンズシステム制御回路4によってAF駆動回路3を介してレンズ103の位置を変位させることで焦点を合わせる。
<Configuration block diagram of
FIG. 2 is a block diagram illustrating a configuration example of the
シャッター101は、システム制御部50の制御で撮像部22の露光時間を自由に制御できるフォーカルプレーンシャッターである。
The
撮像部22は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。撮像部22は、システム制御部50にデフォーカス量情報を出力する撮像面位相差センサーを有していてもよい。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換する。
The
画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の処理(画素補間、縮小といったリサイズ処理、色変換処理、等)を行う。また、画像処理部24は、撮像した画像データを用いて所定の演算処理を行い、システム制御部50は、画像処理部24により得られた演算結果に基づいて露光制御や測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理、等が行われる。画像処理部24は更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
The
顔検出部24aは、画像処理部24で得られた画像から人の顔などの特定領域を検出する少なくとも1つのプロセッサまたは回路である。また器官検出部24bは、画像処理部24で得られた画像と顔検出部24aで検出した特定領域から器官領域を検出する少なくとも1つのプロセッサまたは回路である。ここでの器官とは、顔を構成する要素である瞳や鼻、口などである。本撮像装置では顔検出部24a、器官検出部24b(顔検出部24aで検出した特定領域の要素の検出部)のいずれも画像処理部24の一部である。すなわち、顔検出部24a、器官検出部24bは双方の機能を有する同一のプロセッサまたは回路又はモジュールであってもよく、それぞれ異なるプロセッサまたは回路またはモジュールであっても良い。
The
A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介してメモリ32に書き込まれる。あるいは、A/D変換器23からの出力データは、画像処理部24を介さずにメモリ制御部15を介してメモリ32に書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28やEVF29に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。
Output data from the A /
また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器19は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28やEVF29に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器19を介して表示部28やEVF29により表示される。表示部28とEVF29のそれぞれは、LCDや有機EL等の表示器上で、D/A変換器19からのアナログ信号に応じた表示を行う。A/D変換器23によってA/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器19においてアナログ信号に変換し、表示部28またはEVF29に逐次転送して表示することで、ライブビュー表示(LV)が行える。以下、ライブビュー表示で表示される画像をライブビュー画像(LV画像)と称する。
The
ファインダー外表示部43には、ファインダー外表示部駆動回路44を介して、シャッター速度や絞りをはじめとするカメラの様々な設定値が表示される。
Various setting values of the camera, such as shutter speed and aperture, are displayed on the outside
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばEEPROM等である。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記録される。ここでいうプログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
The
システム制御部50は、少なくとも1つのプロセッサーまたは回路からなる制御部であり、デジタルカメラ100全体を制御する。システム制御部50は、前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52は例えばRAMであり、システム制御部50は、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等をシステムメモリ52に展開する。また、システム制御部50は、メモリ32、D/A変換器19、表示部28等を制御することにより表示制御も行う。
The
システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。 The system timer 53 is a time measuring unit that measures the time used for various controls and the time of a built-in clock.
電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出などを行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。
The
記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
The recording medium I /
通信部54は、無線または有線ケーブルによって接続された外部機器との間で、映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部54は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部54は撮像部22で撮像した画像(LV画像を含む)や、記録媒体200に記録された画像を送信可能であり、外部機器から画像データやその他の各種情報を受信することができる。
The
姿勢検知部55は、重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。姿勢検知部55である加速度センサーやジャイロセンサーを用いて、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。
The
接眼検知部57は、接眼ファインダー17(以後、単に「ファインダー」と記載する)の接眼部16に対する目(物体)の接近(接眼)および離反(離眼)を検知する(接近検知)、接眼検知センサーである。システム制御部50は、接眼検知部57で検知された状態に応じて、表示部28とEVF29の表示(表示状態)/非表示(非表示状態)を切り替える。より具体的には、少なくとも撮影待機状態で、かつ、表示先の切替が自動切替である場合において、非接眼中は表示先を表示部28として表示をオンとし、EVF29は非表示とする。また、接眼中は表示先をEVF29として表示をオンとし、表示部28は非表示とする。接眼検知部57としては、例えば赤外線近接センサーを用いることができ、EVF29を内蔵するファインダー17の接眼部16への何らかの物体の接近を検知することができる。物体が接近した場合は、接眼検知部57の投光部(図示せず)から投光した赤外線が物体で反射して赤外線近接センサーの受光部(図示せず)で受光される。受光された赤外線の量によって、物体が接眼部16からどの距離まで近づいているか(接眼距離)も判別することができる。このように、接眼検知部57は、接眼部16への物体の近接距離を検知する接眼検知を行う。非接眼状態(非接近状態)から、接眼部16に対して所定距離以内に近づく物体が検出された場合に、接眼されたと検出するものとする。接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサーは一例であって、接眼検知部57には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサーを採用してもよい。
The
操作部70は、ユーザーからの操作(ユーザー操作)を受け付ける入力部であり、システム制御部50に各種の動作指示を入力するために使用される。図2に示すように、操作部70は、モード切替スイッチ60、シャッターボタン61、電源スイッチ72、タッチパネル70a、タッチバー82、等を含む。また、操作部70は、その他の操作部材70bとして、メイン電子ダイヤル71、サブ電子ダイヤル73、4方向キー74、SETボタン75、動画ボタン76、AEロックボタン77、拡大ボタン78、再生ボタン79、メニューボタン81、等を含む。
The operation unit 70 is an input unit that receives an operation (user operation) from a user, and is used to input various operation instructions to the
モード切替スイッチ60は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画撮影モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。モード切替スイッチ60より、ユーザーは、これらのモードのいずれかに直接切り替えることができる。あるいは、モード切替スイッチ60で撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードのいずれかに、他の操作部材を用いて選択的に切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
The
シャッターボタン61は、第1シャッタースイッチ62と第2シャッタースイッチ64を備える。第1シャッタースイッチ62は、シャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。システム制御部50は、第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の撮影準備動作を開始する。
The
第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから、撮像された画像を画像ファイルとして記録媒体200に書き込むまでの、一連の撮影処理の動作を開始する。
The
タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aは、光の透過率が表示部28の表示を妨げないように構成され、表示部28の表示面の上層に取り付けられる。そして、タッチパネル70aにおける入力座標と、表示部28の表示面上の表示座標とを対応付ける。これにより、あたかもユーザーが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を提供できる。システム制御部50は、タッチパネル70aへの以下の操作、あるいは状態を検出できる。
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch−Down)と称する)
・タッチパネル70aを指やペンでタッチしている状態(以下、タッチオン(Touch−On)と称する)
・指やペンがタッチパネル70aをタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)
・タッチパネル70aへタッチしていた指やペンがタッチパネル70aから離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch−Up)と称する)
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)
The
The fact that a finger or a pen that has not touched the
A state in which the
-A finger or a pen is moving while touching the
-The finger or pen touching the
-A state in which nothing is touched on the
タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。 When touch-down is detected, touch-on is also detected at the same time. After a touch-down, a touch-on is usually continuously detected unless a touch-up is detected. When a touch move is detected, a touch-on is detected at the same time. Even if a touch-on is detected, a touch move is not detected unless the touch position has moved. After it is detected that all the touched fingers or pens have been touched up, the touch is turned off.
これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。そして、システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行なわれたと判定するものとする。タッチパネル70a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものであってもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
These operations / states and the coordinates of the position where the finger or pen touches the
また、システム制御部50は、タッチバー82への以下の操作、あるいは状態を検出できる。
・タッチバー82にタッチしていなかった指が新たにタッチバー82にタッチしたこと、すなわちタッチの開始(タッチダウン(Touch−Down))
・タッチバー82を指でタッチしている状態(タッチオン(Touch−On))
・指がタッチバー82をタッチしたまま移動していること(タッチムーブ(Touch−Move))
・タッチバー82へタッチしていた指がタッチバー82から離れた(リリースされた)こと、すなわちタッチの終了(タッチアップ(Touch−Up))
・タッチバー82に何もタッチしていない状態(タッチオフ(Touch−Off))
Further, the
The fact that a finger that has not touched the
A state in which the finger is touching the touch bar 82 (touch-on (Touch-On))
-A finger is moving while touching the touch bar 82 (Touch-Move)
The fact that the finger touching the
A state in which nothing is touched on the touch bar 82 (touch-off (Touch-Off))
タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。 When touch-down is detected, touch-on is also detected at the same time. After a touch-down, a touch-on is usually continuously detected unless a touch-up is detected. When a touch move is detected, a touch-on is detected at the same time. Even if a touch-on is detected, a touch move is not detected unless the touch position has moved. After it is detected that all the touched fingers or pens have been touched up, the touch is turned off.
これらの操作・状態や、タッチバー82上に指がタッチしている位置座標は内部バスを通じてシステム制御部50に通知され、システム制御部50は通知された情報に基づいてタッチバー82上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチバー82上での水平方向(左右方向)の移動を検知する。タッチ位置が所定距離以上移動(所定量以上移動)したことが検出された場合はスライド操作が行なわれたと判定するものとする。タッチバー82上に指をタッチし、スライド操作することなく、所定時間以内にタッチを離す操作があった場合に、タップ操作が行われたと判定するものとする。タッチバー82は、本実施形態では、静電容量方式のタッチセンサーであるものとする。ただし、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、別の方式のタッチセンサーであってもよい。
These operations / states and the coordinates of the position where the finger is touching the
<タッチバー82の配置と操作>
図3(a)はタッチバー82の配置を示す図である。図3(a)に示すように、タッチバー82は、デジタルカメラ100の背面側においてファインダー17に隣接して配置されている。また、タッチバー82は、サブ電子ダイヤル73、及び、右手でグリップ部90を握ってデジタルカメラ100を保持した際に親指の位置となるサムレスト部91とも隣接して配置されている。サムレスト部91は、一般的にデジタルカメラ100の前面側にあるグリップ部90を背面側に投影した領域の上部に存在する。そして、図3(a)に示すように、ラバー等を貼付することでサムレスト部91を示すと共にグリップ感を高めていることが多い。
<Arrangement and operation of
FIG. 3A is a diagram illustrating an arrangement of the
このように、本実施形態では、以下の条件1〜3を満たすようにタッチバー82が設けられている。
条件1:デジタルカメラ100の背面のうち、ファインダー17より右側(第1の方向側)にタッチバー82が設けられている。
条件2:デジタルカメラ100の背面のうち、グリップ部90より左側(第2の方向側)にタッチバー82が設けられている。
条件3:デジタルカメラ100のうち、中央よりも、上側(第1の方向と垂直な方向において中央からファインダー側に向かう第3の方向側)にタッチバー82が設けられている。
As described above, in the present embodiment, the
Condition 1: On the rear surface of the
Condition 2: The
Condition 3: In the
これにより、ファインダー17を覗きながらタッチバー82を容易に操作することができる。具体的には、タッチバー82がサムレスト部91に隣接することによって、グリップ部90を握った状態で、右手の親指で、タップ操作、左右(X軸方向)へのスライド操作などがタッチバー82に対して行いやすくなっている。タッチバー82は、非可動の操作部材であり、図3(a)に示す通り、単一のキートップ(カバー)で覆われた単一の操作部材である。これは、静電容量式の操作部材に可動機構や分割構造がある場合は、操作指の接触が安定せず、操作性やスライド操作時のリニアリティが阻害される可能性があるためである。
This allows the
また、他のダイヤル部材と併用しやすいように、タッチバー82を操作する面は、サブ電子ダイヤル73を操作する面と同一となっている。換言すれば、タッチバー82を操作する面は、サブ電子ダイヤル73の回転軸に対して垂直となっている。また、タッチバー82のスライド方向(左右方向)を直感的に理解できるようにしたり、タッチバー82のスライド操作を行いやすくしたりするために、タッチバー82の左右方向の幅は、タッチバー82の上下方向の幅よりも長くされている。また、意図せずタッチバー82に触れることを防ぐために、タッチバー82は、デジタルカメラ100の背面に設けられた複数の操作部材のうち、最も上側に設けられている。また、意図せずタッチバー82に触れることを防ぐために、タッチバー82は、タッチパネル70aを除く、デジタルカメラ100の背面に設けられ、かつファインダー17より右側に設けられた複数の操作部材のうち、最も左側に設けられている。
The surface on which the
図3(b)はタッチバー82の内部(キートップ下層)を示す拡大図である。図3(b)に示すように、タッチバー82の内部には、3つのタッチセンサー電極302a,302b,302cが配置されている。タッチセンサー電極302a,302b,302cのそれぞれはプリント基板301の銅箔配線等で構成され、図3(b)に示すような電極形状を有する。システム制御部50は、タッチセンサー電極302a,302b,302cのそれぞれの電圧(電圧出力値)を読み出すことができる。そして、システム制御部50は、タッチセンサー電極302a,302b,302cのそれぞれについて、ベース電圧(環境に応じて調整や校正される基準値)からの電圧の変化量である電圧変化量を検出可能である。システム制御部50は、タッチセンサー電極302a,302b,302cのそれぞれについて検出された電圧変化量(静電容量の変化量)を加重平均し、X軸方向(横方向)のタッチ位置を0〜255の256段階で示す信号(タッチ座標)を取得する。0が最も左側(ファインダー17側)の位置を示し、255が最も右側(サムレスト部91側)の位置を示す。なお、図3(b)では電極数が3つであるが、電極数は3つに限るものではない。さらに電極形状は図3(b)に示す形状に限るものではない。また、タッチ座標も256段階の値に限るものではない。
FIG. 3B is an enlarged view showing the inside of the touch bar 82 (the lower layer of the key top). As shown in FIG. 3B, inside the
図3(c)はタッチバー82の基本操作を示す拡大図である。タッチバー82には、操作位置・操作方法に応じた機能を割り当てることが可能である。タッチバー82のタッチ検知面(キートップ)のうち、全体ではなく左側の一部領域である左側部82Lへのタップ操作(以下、左タップ)と、右側の一部領域である右側部82Rへのタップ操作(以下、右タップ)とに個別に機能を割り当てることが可能である。さらに、タッチバー82のキートップ上での左右(矢印310で示す方向)へのスライド操作にも、左タップや右タップと区別して機能を割り当てることが可能である。すなわち、タッチバー82の操作箇所毎や操作方式毎(操作種別毎)に異なる機能が登録可能である。左タップと右タップは、例えば、タッチ座標が128以下(中央より左側)のタップであれば左タップ、タッチ座標が129以上(中央より右側)へのタップであれば右タップ、というように判別することが可能である。なお、中央へのタップは左タップと右タップのどちらでもないと判定するようにし、例えばタッチ座標が100以下のタップであれば左タップ、タッチ座標が155以上であれば右タップ、というように判定してもよい。
FIG. 3C is an enlarged view showing a basic operation of the
これらの操作に割り当てられる機能の一例を説明する。左タップには、デジタルカメラ100の撮影ISO感度を1/3段低感度に設定する機能が、右タップには、撮影ISO感度を1/3段高感度に設定する機能が割り当てられる。また、スライド操作には、デジタルカメラ100の撮影ISO感度をスライド操作の所定距離毎(タッチ座標が基準距離、例えば43移動する毎)に1/3段ずつ増減する機能が割り当てられる。
An example of functions assigned to these operations will be described. The left tap is assigned a function of setting the photographing ISO sensitivity of the
更に、これらの操作に割り当てられる機能は、ユーザーによってカスタマイズ可能である。例えば、左タップに、デジタルカメラ100の撮影ISO感度を自動設定する機能を、右タップに、撮影ISO感度を最高値に設定する機能を割り当てるといった変更が可能である。タッチバー82には、これらの他にも多様な機能の割り当てが可能であり、タッチバー82を利用して多くの機能を実行することが可能である。
Furthermore, the functions assigned to these operations can be customized by the user. For example, a change can be made such that a function for automatically setting the shooting ISO sensitivity of the
また、システム制御部50は、タッチバー82のタッチセンサー電極302a,302b,302cの全てにおいて上記電圧変化量が或る閾値を超えている場合に、指がタッチバー82の全面を覆っていると判断し、このタッチ操作を全面タッチとして判定する。全面タッチは、図3(d)に示すように、グリップ部90を把持する右手の親指の腹部全体でタッチバー82にタッチすることを想定した操作方法である。スライド操作、左タップ、右タップに割り当てられた機能はユーザーによってカスタマイズ可能であるが、全面タッチには一意の機能が割り当てられており、全面タッチに割り当てられた機能は変更不可能である。これにより、全面タッチの機能も、基本操作(スライド操作やタップ)の機能も、即時発動させることが可能となる。なお、全面タッチという操作自体の有効/無効は設定可能としてもよい。
Further, the
全面タッチには以下のような特徴がある。
・操作指である親指を水平方向(X方向)に向けて第一関節までの全体を接触させる特殊な操作であるという特徴
・全面タッチの接触状態は通常の操作では起こりにくい特殊な接触状態であるため、意図しない操作によって全面タッチが行われる可能性が低いという特徴
・全面タッチには常に決まった機能(後述)が設定されているため、ユーザーは設定されている機能を覚えなおす必要が無いという特徴
・左タップ、右タップ、及び、スライド操作に対してどのような機能を割り当てていても全面タッチの機能は変わらないため、ユーザーは安心して全面タッチを行うことができるという特徴
The full touch has the following features.
-The special operation of pointing the thumb, which is the operating finger, in the horizontal direction (X direction) and making contact with the entire joint up to the first joint.-The contact state of the full-face touch is a special contact state that is unlikely to occur in normal operation. There is a feature that the entire surface touch is unlikely to be performed due to an unintended operation because the predetermined function (described later) is always set for the entire surface touch, so the user does not need to remember the set function. -The feature of full-face touch does not change regardless of what function is assigned to left tap, right tap, and slide operation, so that the user can perform full touch with peace of mind.
システム制御部50は、タッチバー82へのユーザー操作を判別し、判別したユーザー操作に応じて、予め不揮発性メモリ56に記憶された割当機能を実行する。例えば、システム制御部50は、ユーザーがタッチ操作毎に割り当てた設定変更(露出に関する設定、WBに関する設定、及び、AFに関する設定の少なくとも何れかの撮影設定の変更など)を行う。タッチバー82はファインダー17を覗いた状態で操作可能である。そのため、ユーザーはタッチバー82を視認せずに操作することがある。この場合、操作面を視認していないので、ユーザーは誤操作をしてしまい意図せずに撮影設定のパラメータを変更してしまうおそれがある。そこで、以下のような誤操作防止の制御を行う。タッチバー82へのタッチ操作の有効状態(非ロック状態、非制限状態)/無効状態(ロック状態、制限状態)を切り替える。ロック状態では、タッチバー82への左タップ、右タップ、スライド操作を無視し、これらが行われても、各操作に割り当てられた機能を実行しない。ロック状態の時、タッチバー82のキートップ左側部82Lに対してスライドせずに静止した0.5秒のタッチ操作(ロングタッチ)があったこと(ロック解除操作があったこと)に応じてロック状態を解除して有効状態に遷移する。また、有効状態の時、キートップ左側部82Lに対して2秒のロングタッチがあったこと(ロック操作があったこと)、または10秒の無操作であったことに応じて、ロック状態に遷移する。更に、タッチバー82が有効状態であっても、タッチ位置に関わらず一定時間(本実施形態では1秒)以上のロングタッチは無視し、そのタッチ操作で左タップ、右タップ、スライドが行われても、それらに割り当てられた機能は実行しない(タッチキャンセル)。全面タッチに割り当てられた機能は、有効状態かロック状態かに関わらず全面タッチに応じて実行される。なお、ユーザーがロック解除操作またはロック操作を行った場合、システム制御部50はユーザーがタッチアップするまでタッチバー82に対する操作を受け付けない。
The
このように、本実施形態では、有効状態とロック状態の切り替えのための操作を、デジタルカメラ100の通常の使用時に比較的生じ難いロングタッチ(タッチ継続操作)で共通化する。これにより、ロック状態と有効状態の意図せぬ切り替えを生じ難くすることができ、ロック状態と有効状態を高精度に切り替えることができるようになる。所定時間以上タッチを継続するロングタッチは比較的簡易な操作であるため、有効状態とロック状態の切り替えのための操作方法は覚えやすく、当該操作方法をユーザーが忘れる可能性は低い。さらに、タッチバー82に対する操作で有効状態とロック状態が切り替えられるため、有効状態とロック状態の切り替えのための他の操作部材を設ける必要はなく、構成も簡易である。また、本実施形態では、有効状態に遷移するためのタッチ継続時間を、ロック状態に遷移するためのタッチ継続時間より短くすることで、ロック状態が素早く解除できるようになり、ロック状態後の操作(撮影など)を素早く行えるようになる。
As described above, in the present embodiment, the operation for switching between the valid state and the locked state is shared by a long touch (touch continuation operation) that is relatively unlikely to occur during normal use of the
キートップの左側部82Lを有効状態とロック状態の切り替えのための操作領域(特定領域)としている理由を述べる。ユーザーが右手でグリップ部90を把持し、右手の親指でタッチバー82を操作する場合に、タッチバー82のキートップ左側部82Lのようにグリップ部90から相対的に遠い領域は、意図的に触れないと触りにくい領域である。従って、キートップ左側部82Lのロングタッチがある場合にはロックやロック解除の意図があると判断できるため、キートップ左側部82Lをロック状態/有効状態を切り替える操作領域としている。また、キートップ左側部82Lはファインダー17に相対的に近い領域と言える。ファインダー17のような、キートップよりも突起した突起部に対して相対的に近い領域を、ロック状態/有効状態を切り替える操作領域とする。すなわち、タッチバー82のタッチ検知面のうち左側部82Lと異なる他の領域(例えば右側部82R)よりも突起部側(左側)の領域である左側部82Lをロック状態/有効状態を切り替える操作領域としている。これにより、ストラップを用いてデジタルカメラ100を首からかけた際に腹部とカメラ背面が接触しても、突起部がつっかえとなり、突起部よりも突起していないタッチバー82の左側部82Lに腹部が触れる可能性は低く、誤ったロック解除は生じにくい。また突起部(タッチバー82の操作面に垂直な方向の突起部)に指がぶつかるため、タッチバー82の領域うちファインダー17に近い領域(左側)は最も触れにくく、ロックやロック解除の意図を高精度に汲み取ることができる。なお、ファインダー17は少なくとも、デジタルカメラ100の背面側の、タッチバー82のキートップが備えられた面の上を、グリップ部90を保持した手の親指で左にスライドした場合に超えられない程度の高さで突起している。また、ファインダー17はタッチバー82からみて最も近い、操作面よりも突起した突起部である。
The reason why the
なお、タッチバー82の右側でタッチバー82の最も近くに配置された回転操作部材としてサブ電子ダイヤル73が配置されている。グリップ部90を保持した手の親指で時計回りにこのサブ電子ダイヤル73を回すと、その親指で誤ってタッチバー82のキートップ右側部82Rに触れてしまうことが考えられる。回転操作部材でなくとも、タッチバー82側に操作指を近づけるスライド操作を受付可能なスライドスイッチがタッチバー82の近くに配置されている場合にも、同様の誤接触が生じる。さらに、タッチバー82の右側には、どの操作部材よりもタッチバー82に近い位置(タッチバー82の右側において、他のどの操作部材よりも左側の位置)に、親指でいずれの操作部材も操作していない場合に親指を置くためのサムレスト部91がある。そして、サムレスト部91から少し指を動かすだけで誤ってキートップ右側部82Rに触れてしまうことがある。従って、キートップ右側部82Rへのタッチ操作によってロック状態が解除されると、タッチバー82に対するユーザーの意図しないタッチ操作によって、ロック状態が解除されてしまい、ユーザーの意図しない設定変更が行われてしまうおそれがある。このため、キートップ右側部82Rへのタッチ操作は、ロック状態を解除するためのトリガー操作として用いていない。すなわち、右側部82Rに対する0.5秒のロングタッチがあってもロック状態から有効状態への切り替えは行わず、右側部82Rに対する2秒のロングタッチがあっても有効状態からロック状態への切り替えは行わない。
Note that a sub
このように、タッチバー82のタッチ面のうち左側にロック状態/有効状態を切り替える操作領域を設けることには、重要な意味がある。
Thus, providing the operation area for switching between the locked state and the enabled state on the left side of the touch surface of the
図4(a)、(b)を用いて顔検出・器官検出について説明する。 The face detection / organ detection will be described with reference to FIGS.
図4(a)は、撮像部22で撮像した画像、または記録媒体200に記録された画像を再生した画像から、顔検出部24aで顔の領域を検出し、検出した顔の領域を示す顔枠401を画像に重畳して表示した場合の表示部28における表示例である。顔検出部24aでは画像から人の顔を検出する。このとき顔の大きさ、顔の向きなども判断する事が可能である。ユーザーはこれらの情報を基にAFの対象となる主被写体や、色補正などの対象となる被写体として、顔の領域をタッチパネル70aへのタッチ操作で指定(選択)することができる。
FIG. 4A illustrates a face area detected by the
図4(b)は、撮像部22で撮像した画像、または記録媒体200に記録された画像を再生した画像から、顔検出部24aと器官検出部24bで顔と器官を検出し、検出した顔の器官領域を示す器官枠402と403を画像に重畳して表示した場合の表示例である。器官枠402は、画面に向かって左側の瞳の領域を示す指標である。器官枠403は、画面に向かって右側の瞳の領域を示す指標である。これらの情報をもとに、ユーザーは器官の大きさと向きを判断することができ、検出された器官領域をタッチ操作で指定(選択)することができる。
FIG. 4B illustrates a face and an organ detected by the
顔検出部24aと器官検出部24bで顔とその器官、例えば左目と右目が検出された場合、タッチダウンまたはタッチアップにおけるタッチ位置が顔領域、左目領域、右目領域の何れであるかに基づいて領域指定を行うことが考えられる。なお、ここで顔領域とは、顔領域のうち左目領域でも右目領域でもない領域のことである。しかしタッチダウンまたはタッチアップのタッチ操作では、ユーザーは意図通りの領域をうまく指定できない場合がある。例えば、ユーザーが右目の領域を指定しようとして右目領域内をタッチしたつもりでも、実際には少しずれて右目領域の外側をタッチしてしまい、顔全体、または左目が指定されてしまう可能性がある。この問題は、検出されている顔や器官が小さい場合や、LVや動画のように画像全体における被写体の位置や大きさが変動する場合に、より顕著である。また、ユーザーの意図通りの領域がうまく指定できない要因としては、瞳や顔のように、小さい指定対象を指定する場合、タッチした指で指定対象が隠れてしまい、上手く意図通りの位置をタッチできているのか確認することが難しいことも挙げられる。これに対し本実施形態ではタッチバー82を用いることで、指定対象が指で隠れることなく、ユーザーは意図通りの領域を、より確実に指定できるようにする。
When a face and its organs, for example, a left eye and a right eye, are detected by the
図5は顔検出部24aおよび器官検出部24bが検出した顔およびその器官等を管理するために記録された顔およびその器官等のデータの一例である。例えば図5ではデジタルカメラ100が図4(a)、(b)において認識した顔に関するデータを15個図示している。このデータは不揮発性メモリ56等に記録されている。
FIG. 5 is an example of face and organ data recorded for managing the face and its organs detected by the
顔番号503は撮像部22で撮像された画像に映る顔を示す識別子である。画像に複数の顔が映っていた場合この識別子は顔ごとに異なるようにそれぞれ設定する。
The
X座標504は顔番号503が示す顔枠401のX座標である。Y座標505は顔番号503が示す顔枠401のY座標である。X座標504およびY座標505は顔枠401の画面に向かって左上にある頂点の座標を示す。
The X coordinate 504 is the X coordinate of the
幅506は顔番号503が示す顔の顔枠401の幅である。高さ507は顔番号503が示す顔の顔枠401の高さである。
The
第一の瞳508は画面に向かって左にある瞳(器官枠402)が検出されたか否かを示すデータである。例えば器官枠402が検出された場合は真、検出されなかった場合は偽が第一の瞳508に格納される。第一の瞳508に偽が格納された場合、後述するX座標509〜高さ512に数値は格納されない。
The
X座標509は第一の瞳508が示す器官枠402のX座標である。Y座標510は第一の瞳508が示す器官枠402のY座標である。X座標509およびY座標510は器官枠402の画面に向かって左上にある頂点の座標である。
The X coordinate 509 is the X coordinate of the
幅511は第一の瞳508が示す瞳の器官枠402の幅である。高さ512は第一の瞳508が示す瞳の器官枠402の高さである。
The
第二の瞳513は画面に向かって右にある瞳(器官枠403)が検出されたか否かを示すデータである。例えば器官枠403が検出された場合は真、検出されなかった場合は偽が第二の瞳513に格納される。
The
X座標514は第二の瞳513が示す器官枠403のX座標である。Y座標515は第二の瞳513が示す器官枠403のY座標である。X座標514およびY座標515は器官枠403の画面に向かって左上にある頂点の座標である。
The X coordinate 514 is the X coordinate of the
幅516は第二の瞳513が示す瞳の器官枠403の幅である。高さ517は第二の瞳513が示す瞳の器官枠403の高さである。
The
他にもデータベースには例えば顔の向きおよび他の器官の位置等の顔に関するデータが記録されている。 In addition, data relating to the face such as the orientation of the face and the position of other organs is recorded in the database.
図6はデジタルカメラ100におけるライブビュー(LV)撮影モードのフローチャートを示す。この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開してシステム制御部50が実行することにより実現する。
FIG. 6 shows a flowchart of a live view (LV) shooting mode in the
本処理はシステム制御部50がLV撮影モードや再生モード等において画像に顔枠を表示している場合、ユーザーがタッチバー82をタッチダウンしたことをトリガーに図6の処理が開始されるものとする。顔枠の表示は、例えばユーザがタッチパネル70aを用いて被写体の顔をタッチすることおよびシステム制御部50が画像処理部24を用いて被写体の顔を認識し任意の顔に顔枠を表示すること等によってなされる。さらに他にもユーザーがタッチバー82に対して右タップでも左タップでもないタップをすることによって被写体に顔枠を表示する方法を採用してもよい。
In the present process, when the
また本フローチャートの説明を図7を用いながら説明する。図7はデジタルカメラ100の表示画面の一例を示す図である。本フローチャートが開始された状態では、表示部28は図7(a)の状態である。ただし、図7は説明のために表示部28とタッチバー82を単純化して図示しているため、表示部28とタッチバー82のサイズ関係は正確ではない。
The description of the flowchart will be described with reference to FIG. FIG. 7 is a diagram illustrating an example of a display screen of the
まず、ユーザがタッチバー82をスライド操作(タッチムーブ)する場合を説明する。
First, a case where the user performs a slide operation (touch move) on the
ステップS601において、システム制御部50はタッチバー82になされた操作がタッチムーブか否かを判断する。タッチムーブであると判断した場合、システム制御部50はステップS602の処理を行う。タッチムーブではないと判断した場合、システム制御部50はステップS607の処理を行う。
In step S601, the
ステップS602において、システム制御部50はタッチムーブ状態に遷移する。タッチムーブ状態とは、ユーザはタッチムーブによるスライド操作中であるため、システム制御部50がタッチムーブ(スライド操作)を認識し、タップ操作を認識しない状態である。すでにタッチムーブ状態であった場合、システム制御部50は本ステップの処理を行わなくともよい。
In step S602, the
ステップS603において、システム制御部50はタッチムーブされた方向が左方向か右方向かを判断する。タッチムーブされた方向が左方向の場合、システム制御部50はステップS604の処理を行う。タッチムーブされた方向が右方向の場合、システム制御部50はステップS605の処理を行う。
In step S603, the
ステップS604において、システム制御部50はタッチバー82において右方向へのスライドを検出した場合、図7(a)から図7(b)の状態に遷移するように、現在選択している顔から、画面に向かって右に存在する顔に顔枠701を移動する。例えば、1回の右方向へのスライドにおいて、現在選択している顔領域のX座標以上であり、かつ現在選択している顔領域と最も近いX座標をもつ顔領域に、システム制御部50は顔枠701を重畳する。また現在選択している顔領域よりも画面に向かって右側に顔が存在しない場合は、システム制御部50は顔枠701を移動しない処理または顔領域のX座標が最も小さい顔領域に顔枠701を重畳する処理等を行う。
In step S604, when the
ステップS605において、システム制御部50はタッチバー82において左方向へのスライドを検出した場合、逆に、現在選択している顔から、画面に向かって左に存在する顔に顔枠701を移動する。例えば、1回の左方向へのスライドにおいて、現在選択している顔領域のX座標以下であり、かつ現在選択している顔領域と最も近いX座標をもつ顔領域に、システム制御部50は顔枠701を重畳する。また現在選択している顔領域よりも画面に向かって左側に顔が存在しない場合は、システム制御部50は顔枠701を移動しない処理または顔領域のX座標が最も大きい顔領域に顔枠701を重畳する処理等を行う。
In step S605, when the
ステップS606において、システム制御部50はタッチアップされたか否かを判断する。タッチアップされていないと判断した場合、システム制御部50はステップS601の処理に戻り、タッチムーブ状態を継続する。タッチアップされたと判断した場合、システム制御部50は処理を終了する。
In step S606, the
ここまで、ユーザーがスライド操作をする場合におけるシステム制御部50の処理を説明した。これから、ユーザーがスライド操作しない場合(ステップS601においてNOだった場合)におけるシステム制御部50の処理を説明する。
So far, the processing of the
ステップS607において、システム制御部50はタッチムーブ状態か否かを判断する。タッチムーブ状態であった場合、システム制御部50はタッチムーブ状態であると判断して、ステップS606の処理を行う。タッチムーブ状態ではない場合、システム制御部50はタッチムーブ状態ではないと判断して、ステップS608の処理を行う。
In step S607, the
ステップS608において、システム制御部50はタッチアップされたか否かを判断する。タッチアップされたと判断した場合、システム制御部50はステップS609の処理を行う。タッチアップされていないと判断した場合、システム制御部50はステップS601の処理に戻り、ユーザの操作を待つ状態を継続する。
In step S608, the
ステップS609において、システム制御部50はタッチバー82におけるタッチアップを検出した位置を判断する。キートップ右側部82R(タッチセンサー電極302c)においてタッチアップされた(右タップ)と判断した場合、システム制御部50はステップS610の処理を行う。キートップ左側部82L(タッチセンサー電極302a)においてタッチアップされた(左タップ)と判断した場合、システム制御部50はステップS611の処理を行う。その他(タッチセンサー電極302b)においてタッチアップされたと判断した場合、システム制御部50はステップS612の処理を行う。
In step S609, the
ステップS610において、器官枠702が表示されていない場合、図7(b)に示すように、システム制御部50は画面に向かって右側に存在する瞳を選択し、処理を終了する。例えば、システム制御部50はデータベースに記録している第一の瞳と第二の瞳のX座標を比較し、より大きいX座標である瞳に器官枠702を重畳する。また、すでに器官枠702が表示されている場合、システム制御部50は器官枠702を他方の瞳に重畳する処理または器官枠702を画面から消去する処理等を行う。
If the
ステップS611において、器官枠702が表示されていない場合、システム制御部50は画面に向かって左側に存在する瞳を選択し、処理を終了する。例えば、システム制御部50はデータベースに記録している第一の瞳と第二の瞳のX座標を比較し、より小さいX座標である瞳に器官枠702を重畳する。また、すでに器官枠702が表示されている場合、システム制御部50は器官枠702を他方の瞳に重畳する処理または器官枠702を画面から消去する処理等を行う。
If the
ステップS612において、システム制御部50は表示部28に器官枠702を表示しているか否かを判断する。器官枠702を表示している場合、システム制御部50はステップS613の処理を行う。器官枠702を表示していない場合、システム制御部50はステップS614の処理を行う。
In step S612, the
ステップS613において、システム制御部50は器官枠702を画面から消去する処理を行い、処理を終了する。
In step S613, the
ステップS610において、システム制御部50は顔枠701を画面から消去する処理を行い、処理を終了する。
In step S610, the
本フローチャートにおいては、ユーザーはスライド操作で顔の選択およびタップ操作で瞳の選択ができる。なお、タップ操作とスライド操作の処理を入れ替えてもよい。すなわち、ユーザーはスライド操作で瞳の選択およびタップ操作で顔の選択ができるようにしてもよい。 In this flowchart, the user can select a face by a slide operation and a pupil by a tap operation. The processes of the tap operation and the slide operation may be interchanged. That is, the user may be able to select a pupil by a slide operation and a face by a tap operation.
なお、ステップS608において、システム制御部50はタッチアップされたか否かを判断した後に所定の時間が経過したか否かを判断してもよい。所定の時間が経過していた場合、システム制御部50はタッチバー82による操作を行う意思がユーザーにはないと判断して処理を終了してもよい。例えば所定の時間は初期設定では10秒と規定され、ユーザーが任意に変更できるようにする。所定の時間が経過していなかった場合、システム制御部50はタッチアップされたか否かの判断に即した処理を行う。
In step S608, the
さらに、図6においてカメラを横に構えて撮影した場合を説明したが、カメラを縦に構えて撮影した場合も同様の処理が可能である。この場合において、システム制御部50は顔枠および器官枠のX座標ではなくY座標を参照して処理を行う。例えば、図6のステップS610においてカメラが横に構えられていた場合、システム制御部50はデータベースに記録している第一の瞳と第二の瞳のY座標を比較し、より小さいY座標である瞳に器官枠702を重畳する。
Further, FIG. 6 illustrates the case where the camera is shot with the camera held horizontally, but the same processing can be performed when the camera is shot with the camera held vertically. In this case, the
本実施例において、タッチバー82はタッチパネル70aとは別の部材として説明したが、タッチバー82はタッチパネル70a上にGUIとして表示して代替してもよい。このGUIとしてタッチバーを表示している場合、タッチバーのGUIはタッチバー操作が無効な状態には表示しないと設定にしてもよい。なお、GUIバーは図8に示すようにグリップ部90側(右手親指が届くあたり)に表示すると、ユーザーの指が表示部28上に重なる範囲が狭くなるため、タッチバー82とほぼ同様の効果が得られる。図8(a)のタッチバーがその一例である。こうすることによってタッチバーをタッチパネル上のGUI部材としても狙った顔や瞳を選択することができる。
In the present embodiment, the
図8(a)は顔が選択されている状態、図8(b)は瞳が選択されている状態、図8(c)は図8(a)の顔選択、または図8(b)の瞳選択の状態から右方向へのタッチバーのスライド操作によって向かって右隣の顔に選択が移動した画面表示例である。図8(d)は顔選択が解除されている状態でタッチバーは非表示となっている。タッチバーを表示する場所はタッチパネル上でなるべくグリップ側の位置に表示する。またタッチバーは表示部28に映る顔に重ならないように配置される。
8A shows a state in which a face is selected, FIG. 8B shows a state in which a pupil is selected, FIG. 8C shows a face selected in FIG. 8A, or FIG. It is a screen display example in which the selection was moved to the face on the right side by sliding the touch bar to the right from the pupil selection state. FIG. 8D shows a state in which the face bar is not selected and the touch bar is not displayed. The touch bar is displayed on the touch panel as close to the grip as possible. Further, the touch bar is arranged so as not to overlap the face reflected on the
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.
Claims (20)
前記表示部とは別の部材である、第一の操作領域と第二の操作領域とを有するライン状の操作部に対するタッチ操作を検知するタッチ検知手段と、
表示手段によって表示された画像から前記検出手段によって検出された顔を選択する選択手段と、
前記第一の操作領域に対するタッチ操作に応じて、前記選択手段によって選択された第一の顔に含まれる第一の器官領域を選択し、前記第二の操作領域に対するタッチ操作に応じて、前記選択手段によって選択された第一の顔に含まれる第二の器官領域を選択するように制御する制御手段と、
を有することを特徴とする電子機器。 Detecting means for detecting a face and an organ region included in the face from the image displayed on the display unit;
The display unit is a separate member, a touch detection unit that detects a touch operation on a linear operation unit having a first operation area and a second operation area,
Selection means for selecting a face detected by the detection means from the image displayed by the display means,
In response to a touch operation on the first operation area, select a first organ area included in the first face selected by the selection means, according to a touch operation on the second operation area, Control means for controlling to select a second organ region included in the first face selected by the selection means,
An electronic device comprising:
前記制御手段は、前記第三の操作領域に対するタッチ操作に応じて、前記第一の顔の器官領域が選択されている場合、前記第一の顔の器官領域の選択を解除するように制御し、前記第一の器官領域または前記第二の器官領域が選択されていない場合、前記第一の顔の選択を解除するように制御する
ことを特徴とする請求項1から4のいずれか1項に記載の電子機器。 Further, the operation unit includes a third operation area,
The control means performs control so as to cancel the selection of the first facial organ region when the first facial organ region is selected according to a touch operation on the third operation region. 5. The apparatus according to claim 1, wherein when the first organ area or the second organ area is not selected, control is performed so as to cancel the selection of the first face. 6. An electronic device according to claim 1.
ことを特徴とする請求項1から5のいずれか1項に記載の電子機器。 The control means performs control so as to cancel the selection of the first face and select a second face according to the slide operation in response to a slide operation across the operation area of the operation unit. The electronic device according to any one of claims 1 to 5, wherein
前記顔に重ならないように配置された、第一の操作領域と第二の操作領域を有するライン状の操作面に対するタッチ操作を検知するタッチ検知手段と、
表示手段によって表示された画像から前記検出手段によって検出された顔を選択する選択手段と、
前記第一の操作領域に対するタッチ操作に応じて、前記選択手段によって選択された第一の顔に含まれる第一の器官領域を選択し、前記第二の操作領域に対するタッチ操作に応じて、前記選択手段によって選択された第一の顔に含まれる第二の器官領域を選択するように制御する制御手段と、
を有することを特徴とする電子機器。 Detecting means for detecting a face and an organ region included in the face from the image;
A touch detection unit that detects a touch operation on a linear operation surface having a first operation area and a second operation area, which is arranged so as not to overlap the face,
Selection means for selecting a face detected by the detection means from the image displayed by the display means,
In response to a touch operation on the first operation area, select a first organ area included in the first face selected by the selection means, according to a touch operation on the second operation area, Control means for controlling to select a second organ region included in the first face selected by the selection means,
An electronic device comprising:
前記制御手段は、前記第三の操作領域に対するタッチ操作に応じて、前記第一の顔の器官領域が選択されている場合、前記第一の顔の器官領域の選択を解除するように制御し、前記第一の器官領域または前記第二の器官領域が選択されていない場合、前記第一の顔の選択を解除するように制御する
ことを特徴とする請求項9から12のいずれか1項に記載の電子機器。 Further, the operation surface includes a third operation area,
The control means performs control so as to cancel the selection of the first facial organ region when the first facial organ region is selected according to a touch operation on the third operation region. 13. The method according to claim 9, wherein when the first organ area or the second organ area is not selected, control is performed so as to cancel the selection of the first face. An electronic device according to claim 1.
ことを特徴とする請求項9から13のいずれか1項に記載の電子機器。 The control means performs control so as to release the selection of the first face and select a second face according to the slide operation in response to a slide operation across an operation area of the operation surface. The electronic device according to any one of claims 9 to 13.
前記表示部とは別の部材である、第一の操作領域と第二の操作領域を有するライン状の操作部に対するタッチ操作を検知するタッチ検知手段と、
表示手段によって表示された画像から前記検出手段によって検出された顔を選択する選択手段と、を有する電子機器の制御方法であって、
前記第一の操作領域に対するタッチ操作に応じて、前記選択手段によって選択された第一の顔に含まれる第一の器官領域を選択するステップと、前記第二の操作領域に対するタッチ操作に応じて、前記選択手段によって選択された第一の顔に含まれる第二の器官領域を選択するステップと、
を有することを特徴とする電子機器の制御方法。 Detecting means for detecting a face and an organ region included in the face from the image displayed on the display unit;
The display unit is a separate member, a touch detection unit that detects a touch operation on a linear operation unit having a first operation area and a second operation area,
Selecting means for selecting a face detected by the detecting means from the image displayed by the display means, and a control method of an electronic device, comprising:
A step of selecting a first organ region included in the first face selected by the selection means in response to a touch operation on the first operation region; and Selecting a second organ region included in the first face selected by the selecting means,
A method for controlling an electronic device, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018142904A JP2020021174A (en) | 2018-07-30 | 2018-07-30 | Electronic device, control method thereof, and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018142904A JP2020021174A (en) | 2018-07-30 | 2018-07-30 | Electronic device, control method thereof, and program thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020021174A true JP2020021174A (en) | 2020-02-06 |
Family
ID=69589841
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018142904A Pending JP2020021174A (en) | 2018-07-30 | 2018-07-30 | Electronic device, control method thereof, and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020021174A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6979738B1 (en) * | 2021-03-26 | 2021-12-15 | 株式会社オープンエイト | Servers and animation recommendation systems, animation recommendation methods, programs |
-
2018
- 2018-07-30 JP JP2018142904A patent/JP2020021174A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6979738B1 (en) * | 2021-03-26 | 2021-12-15 | 株式会社オープンエイト | Servers and animation recommendation systems, animation recommendation methods, programs |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6742730B2 (en) | Electronic device and control method thereof | |
US11240419B2 (en) | Electronic device that can execute function in accordance with line of sight of user, method of controlling electronic device, and non-transitory computer readable medium | |
US10904442B2 (en) | Image sensing apparatus with improved user operability when performing an enlarged display of a live view image and control method of image sensing apparatus | |
US10958826B2 (en) | Electronic apparatus and control method for electronic apparatus | |
US11184528B2 (en) | Electronic apparatus, control method therefor, and non-transitory computer readable medium | |
JP2021068208A (en) | Electronic apparatus, control method for electronic apparatus, program, storage medium | |
JP7465129B2 (en) | Imaging device, control method thereof, program, and storage medium | |
JP6701027B2 (en) | Imaging device, control method thereof, and program | |
US11526208B2 (en) | Electronic device and method for controlling electronic device | |
JP2020021174A (en) | Electronic device, control method thereof, and program thereof | |
JP7446913B2 (en) | Electronic devices, control methods for electronic devices, and programs | |
US11010000B2 (en) | Electronic equipment having a touch operating member that can be operated while viewing display monitors | |
JP7129244B2 (en) | ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, PROGRAM, STORAGE MEDIUM | |
JP2021012619A (en) | Electronic apparatus and method for controlling the same | |
JP2020178232A (en) | Electronic apparatus | |
JP6562832B2 (en) | Electronic device and control method thereof | |
US11659278B2 (en) | Electronic device | |
EP3731079B1 (en) | Electronic device, control method of electronic device, program, and computer-readable storage medium | |
JP2020004295A (en) | Electronic apparatus | |
EP4340381A1 (en) | Image capturing device and method of controlling thereof | |
US20240080549A1 (en) | Imaging device, control method of imaging device, and non-transitory computer readable medium | |
US20220357833A1 (en) | Electronic apparatus, control method for electronic apparatus, and storage medium | |
US20240129622A1 (en) | Electronic device and control method thereof | |
JP7195788B2 (en) | Electronics | |
JP2018023068A (en) | Electronic device, control method thereof, and program |