JP7422457B2 - Display control device and its control method - Google Patents

Display control device and its control method Download PDF

Info

Publication number
JP7422457B2
JP7422457B2 JP2019217578A JP2019217578A JP7422457B2 JP 7422457 B2 JP7422457 B2 JP 7422457B2 JP 2019217578 A JP2019217578 A JP 2019217578A JP 2019217578 A JP2019217578 A JP 2019217578A JP 7422457 B2 JP7422457 B2 JP 7422457B2
Authority
JP
Japan
Prior art keywords
item
axis
control unit
system control
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019217578A
Other languages
Japanese (ja)
Other versions
JP2021086585A (en
Inventor
亮 ▲高▼橋
拓郎 宮嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019217578A priority Critical patent/JP7422457B2/en
Publication of JP2021086585A publication Critical patent/JP2021086585A/en
Application granted granted Critical
Publication of JP7422457B2 publication Critical patent/JP7422457B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示制御装置及びその制御方法に関し、特に表示面上でアイテムを移動する際の技術に関する。 The present invention relates to a display control device and a control method thereof, and particularly relates to a technique for moving items on a display screen.

操作部材を用いて表示面上でアイテムを移動する技術がある。特許文献1では、項目列の端の項目が選択されている際に、十字キーとダイヤルのいずれへの操作でも、同じ方向にある項目が選択されることが開示されている。 There is a technique for moving items on a display surface using an operating member. Patent Document 1 discloses that when an item at the end of an item row is selected, an item in the same direction is selected by operating either the cross key or the dial.

特開2016-126621号公報Japanese Patent Application Publication No. 2016-126621

所定の順番に並んだ項目を選択するのではなく、ある領域の中で項目を移動させる場合には、特許文献1の方法のように、十字キーでもダイヤルでも同じように項目を移動させると以下のようなことが起こる可能性がある。操作部材の操作方向と移動の指示方向が同じでないダイヤルの回転操作では、領域内の端に項目が移動した後、項目の移動方向が操作方向と異なるとユーザが直感的な操作を行えなくなる可能性がある。もしくは、一軸方向に移動指示を行うダイヤルへの操作では、領域内の端に項目が移動した後、軸方向と異なる方向へと選択する項目が移動するとユーザが直感的な操作を行えなくなる可能性がある。 If you want to move an item within a certain area rather than selecting items arranged in a predetermined order, you can move the item in the same way using the cross key or dial, as in the method of Patent Document 1, as shown below. Something like this could happen. When rotating the dial, where the operating direction of the operating member and the direction of movement are not the same, the user may not be able to perform intuitive operations if the moving direction of the item is different from the operating direction after the item moves to the edge of the area. There is sex. Alternatively, when operating a dial that instructs movement in one axis direction, if the item moves to the edge of the area and then the selected item moves in a direction different from the axis direction, the user may not be able to perform intuitive operations. There is.

本発明は、上記の課題に鑑み、複数の操作部材で項目を移動可能な場合に、ユーザが直感的な操作を行えるようにする表示制御装置の提供を目的とする。 In view of the above problems, the present invention aims to provide a display control device that allows a user to perform intuitive operations when items can be moved using a plurality of operation members.

第1のアイテムの示す所定の領域内で第2のアイテムを移動する指示が可能な移動指示手段と、第1の軸に沿った移動指示が可能な第1の操作部材への操作が行われたことと、第1の軸に沿った移動指示が可能な第2の操作部材への操作が行われたこととを検知可能な検知手段と、前記所定の領域の端の位置ではない第1の位置に前記第2のアイテムがある際に、前記第1の操作部材への第1の操作に応じては前記第2のアイテムを前記第1の軸に沿った第2の位置へと移動し、前記第2の操作部材への第2の操作に応じては前記第2のアイテムを前記第2の位置へと移動し、前記所定の領域の端の第3の位置に前記第2のアイテムがある際に、前記第1の操作部材への前記第1の操作に応じては前記第2のアイテムが前記第1の軸とは異なる軸に沿って第4の位置へと移動し、前記第2の操作部材への前記第2の操作に応じては前記第2のアイテムが前記第4の位置へと移動しないように制御する制御手段とを有することを特徴とする。 An operation is performed on a movement instruction means capable of instructing movement of the second item within a predetermined area indicated by the first item, and a first operation member capable of instructing movement along the first axis. and detecting means capable of detecting that a second operating member capable of instructing movement along the first axis has been operated; When the second item is at the position, the second item is moved to a second position along the first axis in response to a first operation on the first operating member. In response to a second operation on the second operation member, the second item is moved to the second position, and the second item is moved to a third position at the end of the predetermined area. When an item is present, the second item moves to a fourth position along an axis different from the first axis in response to the first operation on the first operation member; It is characterized by comprising a control means for controlling the second item not to move to the fourth position in response to the second operation on the second operation member.

本発明によれば、複数の操作部材で項目を移動可能な場合に、ユーザが直感的な操作を行える。 According to the present invention, when items can be moved using a plurality of operating members, the user can perform intuitive operations.

(a)本発明の実施形態を適用可能な装置の一例としてのデジタルカメラのブロック図、(b)本発明の実施形態を適用可能な装置の一例としてのデジタルカメラの外観図(a) Block diagram of a digital camera as an example of a device to which the embodiment of the present invention can be applied; (b) External view of a digital camera as an example of a device to which the embodiment of the present invention can be applied. 本実施形態におけるRAW現像編集処理を示すフローチャートFlowchart showing RAW development editing processing in this embodiment 本実施形態における仮想光源編集処理を示すフローチャートFlowchart showing virtual light source editing processing in this embodiment 本実施形態における顔選択処理を示すフローチャートFlowchart showing face selection processing in this embodiment 本実施形態におけるムーブ処理を示すフローチャートFlowchart showing move processing in this embodiment 本実施形態における表示画面の例を示す図A diagram showing an example of a display screen in this embodiment 本実施形態における仮想光源の方向を説明するための図Diagram for explaining the direction of the virtual light source in this embodiment 本実施形態におけるタッチ操作について説明をするための図Diagram for explaining touch operation in this embodiment 本実施形態における回転部材操作処理を示すフローチャートFlowchart showing rotating member operation processing in this embodiment 本実施形態における十字ボタン操作の処理を示すフローチャートFlowchart showing processing of cross button operation in this embodiment 本実施形態における仮想光源の方向を示す表示について説明するための図Diagram for explaining the display showing the direction of the virtual light source in this embodiment 設定画面を表示する際の変形例を示すフローチャートFlowchart showing a modification example when displaying the settings screen 設定画面の変形例を示す図Diagram showing a modified example of the settings screen

以下、図面を参照して本発明の好適な実施形態を説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

図1(a)は本発明の実施形態を適用可能な装置の一例としてのデジタルカメラ100のシステム構成例を示すブロック図である。また、図1(b)はデジタルカメラ100の外観図である。 FIG. 1A is a block diagram showing an example of a system configuration of a digital camera 100 as an example of a device to which an embodiment of the present invention can be applied. Further, FIG. 1(b) is an external view of the digital camera 100.

図1において、撮影レンズ104はズームレンズ、フォーカスレンズを含むレンズ群である。シャッター105は絞り機能を備えるシャッターである。撮像部106は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器107は、アナログ信号をデジタル信号に変換する。A/D変換器107は、撮像部106から出力されるアナログ信号をデジタル信号に変換するために用いられる。バリア103は、デジタルカメラ100の撮影レンズ104を含む撮像系を覆うことにより、撮影レンズ104、シャッター105、撮像部106を含む撮像系の汚れや破損を防止する。 In FIG. 1, a photographing lens 104 is a lens group including a zoom lens and a focus lens. The shutter 105 is a shutter with an aperture function. The imaging unit 106 is an imaging device composed of a CCD, CMOS device, or the like that converts an optical image into an electrical signal. A/D converter 107 converts analog signals into digital signals. The A/D converter 107 is used to convert an analog signal output from the imaging unit 106 into a digital signal. The barrier 103 protects the imaging system including the taking lens 104 of the digital camera 100 from becoming dirty or being damaged.

画像処理部102は、A/D変換器107からのデータ、又は、メモリ制御部108からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部102では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部101が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部102では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。 The image processing unit 102 performs resizing processing such as predetermined pixel interpolation and reduction, and color conversion processing on the data from the A/D converter 107 or the data from the memory control unit 108. Further, the image processing unit 102 performs predetermined calculation processing using the captured image data, and the system control unit 101 performs exposure control and distance measurement control based on the obtained calculation results. As a result, TTL (through-the-lens) type AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-emission) processing are performed. The image processing unit 102 further performs predetermined arithmetic processing using the captured image data, and also performs TTL-based AWB (auto white balance) processing based on the obtained arithmetic results.

A/D変換器107からの出力データは、画像処理部102及びメモリ制御部108を介して、或いは、メモリ制御部108を介してメモリ109に直接書き込まれる。メモリ109は、撮像部106によって得られA/D変換器107によりデジタルデータに変換された画像データや、表示部111に表示するための画像データを格納する。メモリ109は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。 Output data from the A/D converter 107 is directly written into the memory 109 via the image processing section 102 and the memory control section 108 or via the memory control section 108. The memory 109 stores image data obtained by the imaging unit 106 and converted into digital data by the A/D converter 107, and image data to be displayed on the display unit 111. The memory 109 has a storage capacity sufficient to store a predetermined number of still images, a predetermined period of moving images, and audio.

また、メモリ109は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器110は、メモリ109に格納されている画像表示用のデータをアナログ信号に変換して表示部111に供給する。こうして、メモリ109に書き込まれた表示用の画像データはD/A変換器110を介して表示部111により表示される。 Furthermore, the memory 109 also serves as a memory for displaying images (video memory). The D/A converter 110 converts image display data stored in the memory 109 into an analog signal and supplies the analog signal to the display section 111. In this way, the image data for display written in the memory 109 is displayed on the display section 111 via the D/A converter 110.

表示部111は、LCD等の表示器上に、D/A変換器110からのアナログ信号に応じた表示を行う。A/D変換器107によって一度A/D変換されメモリ109に蓄積されたデジタル信号をD/A変換器110においてアナログ変換し、表示部111に逐次転送して表示することで、電子ビューファインダとして機能し、スルー画像表示を行える。以後、ライブビュー画像と呼ぶ。 The display unit 111 performs display on a display such as an LCD according to the analog signal from the D/A converter 110. A digital signal that has been A/D converted by the A/D converter 107 and stored in the memory 109 is converted into an analog signal by the D/A converter 110, and is sequentially transferred to the display unit 111 for display, so that it can be used as an electronic viewfinder. function, and can display through images. Hereinafter, this will be referred to as a live view image.

不揮発性メモリ114は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ114には、システム制御部101の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。 The nonvolatile memory 114 is an electrically erasable/recordable memory, such as an EEPROM. The nonvolatile memory 114 stores constants, programs, etc. for the operation of the system control unit 101. The program here refers to a program for executing various flowcharts described later in this embodiment.

システム制御部101は、デジタルカメラ100全体を制御する。前述した不揮発性メモリ114に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ112はシステムメモリであり、RAMが用いられる。システムメモリ112には、システム制御部101の動作用の定数、変数、不揮発性メモリ114から読み出したプログラム等を展開する。また、システム制御部はメモリ109、D/A変換器110、表示部111等を制御することにより表示制御も行う。システムタイマー113は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。 The system control unit 101 controls the entire digital camera 100. By executing the program recorded in the nonvolatile memory 114 described above, each process of the present embodiment, which will be described later, is realized. System memory 112 is a system memory and uses RAM. In the system memory 112, constants and variables for the operation of the system control unit 101, programs read from the nonvolatile memory 114, and the like are loaded. The system control unit also performs display control by controlling the memory 109, D/A converter 110, display unit 111, and the like. The system timer 113 is a timekeeping unit that measures the time used for various controls and the time of a built-in clock.

シャッターボタン115、モード切り換えダイヤル118、電源ボタン119、操作部200はシステム制御部101に各種の動作指示を入力するための操作手段である(システム制御部101は操作部200への操作がされたことを検知可能)。 The shutter button 115, mode switching dial 118, power button 119, and operation unit 200 are operation means for inputting various operation instructions to the system control unit 101 (the system control unit 101 is operated when the operation unit 200 is operated). (can be detected).

モード切り換えダイヤル118は、システム制御部101の動作モードを静止画記録モード、動画記録モード、再生モード、および各動作モードに含まれる詳細モードに切り換える。 The mode switching dial 118 switches the operation mode of the system control unit 101 to a still image recording mode, a moving image recording mode, a playback mode, and a detailed mode included in each operation mode.

第1シャッタースイッチ116は、デジタルカメラ100に設けられたシャッターボタン115の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。 The first shutter switch 116 is turned on when the shutter button 115 provided on the digital camera 100 is pressed halfway (instruction for photographing preparation) during operation, and generates the first shutter switch signal SW1. The first shutter switch signal SW1 starts operations such as AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, and EF (flash pre-emission) processing.

第2シャッタースイッチ117は、シャッターボタン115の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部101は、第2シャッタースイッチ信号SW2により、撮像部106からの信号読み出しから記録媒体124に画像データを書き込むまでの一連の撮影処理の動作を開始する。 The second shutter switch 117 is turned ON when the operation of the shutter button 115 is completed, that is, when the shutter button 115 is fully pressed (photographing instruction), and generates a second shutter switch signal SW2. In response to the second shutter switch signal SW2, the system control unit 101 starts a series of photographic processing operations from reading out signals from the imaging unit 106 to writing image data to the recording medium 124.

電源制御部121は、電池検出回路、DC-DCコンバータ、通電するブロックを切り換えるスイッチ回路等により構成され、電源ボタン119の状態、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部121は、その検出結果及びシステム制御部101の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体124を含む各部へ供給する。 The power supply control unit 121 is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching the blocks to be energized, and the like, and detects the state of the power button 119, whether or not a battery is installed, the type of battery, and the remaining battery level. . Further, the power supply control unit 121 controls the DC-DC converter based on the detection result and instructions from the system control unit 101, and supplies necessary voltage to each unit including the recording medium 124 for a necessary period.

電源部122は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。本実施例では電源部(以下電池と呼ぶ)に二次電池を用いた場合の説明を行う。 The power supply unit 122 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like. In this embodiment, a case will be described in which a secondary battery is used in the power supply unit (hereinafter referred to as battery).

記録媒体I/F123は、メモリカードやハードディスク等の記録媒体124とのインターフェースである。記録媒体124は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。 The recording medium I/F 123 is an interface with a recording medium 124 such as a memory card or a hard disk. The recording medium 124 is a recording medium such as a memory card for recording photographed images, and is composed of a semiconductor memory, a magnetic disk, or the like.

操作部200の各操作部材は、表示部111に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。操作部200には、タッチパネル200a、メニューボタン201、マルチコントローラー208、十字ボタン202、SETボタン203が含まれる。さらに操作部200には、コントローラーホイール204、電子ダイヤル205、INFOボタン206等が含まれる。十字ボタン202には、上方向の上キー202a、下方向の下キー202b、左方向の左キー202c、右方向の右キー202dからなり、選択中のアイテムの移動や、選択する項目の変更等に用いることができる。例えば、図1(b)に示すメニューボタン201が押されると各種の設定可能なメニュー画面が表示部111に表示される。ユーザは、表示部111に表示されたメニュー画面と、上下左右の4方向にボタンを備えた十字ボタン202やSETボタン203とを用いて直感的に各種設定を行うことができる。コントローラーホイール204、電子ダイヤル205、マルチコントローラー208は、操作部200に含まれる回転操作可能な操作部材であり、方向ボタンと共に選択項目を指示する際などに使用される。コントローラーホイール204や電子ダイヤル205を回転操作すると、操作量に応じて電気的なパルス信号が発生し、このパルス信号に基づいてシステム制御部101はデジタルカメラ100の各部を制御する。このパルス信号によって、コントローラーホイール204や電子ダイヤル205が回転操作された角度や、何回転したかなどを判定することができる。なお、コントローラーホイール204や電子ダイヤル205は回転操作が検出できる操作部材であればどのようなものでもよい。例えば、ユーザの回転操作に応じてコントローラーホイール204や電子ダイヤル205自体が回転してパルス信号を発生するダイヤル操作部材であってもよい。また、タッチセンサよりなる操作部材で、コントローラーホイール204自体は回転せず、コントローラーホイール204上でのユーザの指の回転動作などを検出するものであってもよい(いわゆる、タッチホイール)。マルチコントローラー208は、十字キー202と同様に、右方向、左方向、上方向、下方向への指示が可能なコントローラであり、レバーを各方向に倒すことによって方向の指示が可能となる。INFOボタン206は表示部111に表示された情報表示の情報量を切り換えるボタンである。INFOボタン206を押すたびに情報量が標準、詳細、非表示の順に切り換えることができる。 Each operating member of the operating unit 200 is assigned an appropriate function for each scene by selecting and operating various function icons displayed on the display unit 111, and acts as various function buttons. Examples of the function buttons include an end button, a return button, an image forwarding button, a jump button, a narrowing down button, and an attribute change button. The operation unit 200 includes a touch panel 200a, a menu button 201, a multi-controller 208, a cross button 202, and a SET button 203. Furthermore, the operation unit 200 includes a controller wheel 204, an electronic dial 205, an INFO button 206, and the like. The cross button 202 consists of an up key 202a, a down key 202b, a left key 202c, and a right key 202d, which are used to move the currently selected item, change the selected item, etc. It can be used for. For example, when the menu button 201 shown in FIG. 1(b) is pressed, various setting menu screens are displayed on the display unit 111. The user can intuitively perform various settings using the menu screen displayed on the display unit 111 and the cross button 202 and SET button 203, which have buttons in four directions: up, down, left, and right. The controller wheel 204, the electronic dial 205, and the multi-controller 208 are rotatable operation members included in the operation unit 200, and are used together with the direction buttons to indicate selection items. When the controller wheel 204 or electronic dial 205 is rotated, an electrical pulse signal is generated according to the amount of operation, and the system control unit 101 controls each part of the digital camera 100 based on this pulse signal. Based on this pulse signal, it is possible to determine the angle at which the controller wheel 204 or the electronic dial 205 has been rotated, the number of rotations, and the like. Note that the controller wheel 204 and the electronic dial 205 may be any operating members that can detect rotational operations. For example, the controller wheel 204 or the electronic dial 205 itself may be a dial operating member that rotates in response to a user's rotational operation and generates a pulse signal. Alternatively, the controller wheel 204 may be an operating member made of a touch sensor, and the controller wheel 204 itself may not rotate, but may detect rotational motion of a user's finger on the controller wheel 204 (a so-called touch wheel). The multi-controller 208, like the cross key 202, is a controller that can give instructions in the right, left, up, and down directions, and can be given directions by tilting the lever in each direction. The INFO button 206 is a button for switching the amount of information displayed on the display unit 111. Each time the INFO button 206 is pressed, the amount of information can be switched in the order of standard, detailed, and hidden.

デジタルカメラ底面からは電池122と記録媒体124をデジタルカメラ100に挿入でき、開閉可能なカバー207で蓋をすることができる。 The battery 122 and recording medium 124 can be inserted into the digital camera 100 from the bottom of the digital camera, and can be covered with an openable/closeable cover 207.

操作部200の一つとして、表示部111に対する接触を検知可能なタッチパネル200aを有する。タッチパネル200aと表示部111とは一体的に構成することができる。例えば、タッチパネル200aを光の透過率が表示部111の表示を妨げないように構成し、表示部111の表示面の上層に取り付ける。そして、タッチパネル200aにおける入力座標と、表示部111上(表示面上)の表示座標とを対応付ける。これにより、恰もユーザが表示部111上に表示された画面を直接的に操作可能であるかのようなGUIを構成することができる。システム制御部101はタッチパネルへの以下の操作を検出(タッチ検出可能)できる。
・タッチパネルにタッチしていなかった指やペンが新たにタッチパネルにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する)。
・タッチパネルを指やペンでタッチしている状態であること(以下、タッチオン(Touch-On)と称する)。
・タッチパネルを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
・タッチパネルへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する)。
・タッチパネルに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
・タッチパネルにタッチダウンした後、短時間の間にタッチアップが行われること。タッチパネルをはじくようなタッチ操作(以下、Tapと称する)。
As one of the operation units 200, a touch panel 200a that can detect contact with the display unit 111 is provided. The touch panel 200a and the display section 111 can be configured integrally. For example, the touch panel 200a is configured such that its light transmittance does not interfere with the display on the display section 111, and is attached to the upper layer of the display surface of the display section 111. Then, the input coordinates on the touch panel 200a are associated with the display coordinates on the display unit 111 (on the display surface). Thereby, it is possible to configure a GUI as if the user could directly operate the screen displayed on the display unit 111. The system control unit 101 can detect (touch detection is possible) the following operations on the touch panel.
- A finger or pen that was not touching the touch panel newly touches the touch panel. That is, the start of a touch (hereinafter referred to as Touch-Down).
- A state in which the touch panel is touched with a finger or a pen (hereinafter referred to as "touch-on").
- Moving while touching the touch panel with a finger or pen (hereinafter referred to as Touch-Move).
・Releasing the finger or pen that was touching the touch panel. That is, the end of the touch (hereinafter referred to as Touch-Up).
- A state in which nothing is touched on the touch panel (hereinafter referred to as Touch-Off).
・Touch-up is performed within a short time after touching down to the touch panel. A touch operation like flicking a touch panel (hereinafter referred to as "Tap").

これらの操作や、タッチパネル上に指やペンが触れている位置座標は内部バスを通じてシステム制御部101に通知され、システム制御部101は通知された情報に基づいてタッチパネル上にどのような操作が行なわれたかを判定する。タッチムーブについては、タッチパネル上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル上の垂直成分・水平成分毎に判定できる。また、タッチパネル上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル上に指を触れたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。また、所定距離以上を、所定速度未満でムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。また、タッチパネルを指やペンでムーブしながら特定領域に入る操作(以下、ムーブインと称する)、ムーブしながら特定領域から外に出る操作(以下、ムーブアウトと称する)を検知することもできる。さらに、2本のタッチ点の距離を縮めるようなタッチ操作、すなわち、表示されている画像をつまむような操作はピンチインとし、画像の縮小や表示画像の枚数を増やす操作として使用される。2本のタッチ点の距離を広げるようなタッチ操作、すなわち、表示されている画像を広げるような操作はピンチアウトとし、画像の拡大や表示画像の枚数を減らす操作として使用される。タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。 These operations and the positional coordinates of the finger or pen touching the touch panel are notified to the system control unit 101 through the internal bus, and the system control unit 101 determines what operations to perform on the touch panel based on the notified information. Determine whether the Regarding touch moves, the direction of movement of a finger or pen on the touch panel can also be determined for each vertical component and horizontal component on the touch panel based on changes in position coordinates. Furthermore, when a touch panel is touched up after touching down through a certain touch movement, it is assumed that a stroke has been drawn. The operation of drawing a quick stroke is called a flick. A flick is an operation in which a finger is touched on the touch panel, quickly moved for a certain distance, and then released. In other words, it is an operation in which the finger is quickly traced on the touch panel as if flicking. If it is detected that a touch move has been made over a predetermined distance and at a predetermined speed or more, and if a touch-up is detected as it is, it can be determined that a flick has been performed. Further, if it is detected that the object has been moved by a predetermined distance or more at a speed lower than a predetermined speed, it is determined that a drag has been performed. It is also possible to detect an operation of entering a specific area while moving the touch panel with a finger or pen (hereinafter referred to as move-in), and an operation of moving out of the specific area while moving the touch panel (hereinafter referred to as move-out). Furthermore, a touch operation that reduces the distance between two touch points, that is, an operation that pinches a displayed image, is called a pinch-in, and is used as an operation to reduce an image or increase the number of displayed images. A touch operation that widens the distance between two touch points, that is, an operation that widens the displayed image, is called a pinch out, and is used as an operation that enlarges the image or reduces the number of displayed images. The touch panel may be of any of various types, such as a resistive film type, a capacitance type, a surface acoustic wave type, an infrared type, an electromagnetic induction type, an image recognition type, an optical sensor type, etc. .

次に、図2を用いて、本実施形態におけるRAW現像編集処理について説明をする。この処理は、不揮発性メモリ114に記録されたプログラムをシステムメモリ112に展開してシステム制御部101が実行することで実現する。仮想光源図2の処理はデジタルカメラ100に電源が入り、メニュー画面において再生のメニューが表示され、さらに、RAW現像編集処理の項目が選択されると開始する。RAW現像編集処理が選択されると、図6(a)に示すように仮想光源方向の変更処理を行うための項目と、背景ぼかし処理を行うための項目とを含むRAW現像メニュー画面が表示部111に表示される。仮想光源方向の変更処理も背景ぼかし処理も画像の深度情報を用いて処理を行う。なお、RAW現像編集処理は、マニュアルモードやAv(絞り優先モード),Tv(シャッター速度優先モード)などの撮影モードに切り替えているときに選択可能な項目である。RAW現像編集処理は、オート撮影モードなどのカメラ側で自動的に撮影項目の設定をして撮影を行うようなモードでは選択できない。 Next, the RAW development editing process in this embodiment will be explained using FIG. 2. This processing is realized by loading a program recorded in the nonvolatile memory 114 into the system memory 112 and executing it by the system control unit 101. The processing of the virtual light source diagram 2 starts when the digital camera 100 is powered on, a playback menu is displayed on the menu screen, and the RAW development editing processing item is selected. When the RAW development editing process is selected, a RAW development menu screen including an item for changing the virtual light source direction and an item for background blurring appears on the display, as shown in FIG. 6(a). 111. Both the virtual light source direction changing process and the background blurring process are performed using the depth information of the image. Note that the RAW development editing process is an item that can be selected when switching to a shooting mode such as manual mode, Av (aperture priority mode), or Tv (shutter speed priority mode). RAW development editing processing cannot be selected in a mode such as auto shooting mode where shooting items are automatically set on the camera side and shooting is performed.

S201では、システム制御部101は、仮想光源処理が選択されたか否かを判定する。図6(a)のアイテム601は仮想光源処理に進むためのアイテム、アイテム602は背景ぼかし処理に進むためのアイテムである。アイテム601が選択されるとS201はYesとなる。仮想光源処理が選択されたと判定した場合は、S205へ進み、そうでない場合はS202に進む。 In S201, the system control unit 101 determines whether virtual light source processing has been selected. Item 601 in FIG. 6A is an item for proceeding to virtual light source processing, and item 602 is an item for proceeding to background blurring processing. When item 601 is selected, S201 becomes Yes. If it is determined that virtual light source processing has been selected, the process advances to S205; otherwise, the process advances to S202.

S202では、システム制御部101は、背景ぼかし処理が選択されたか否かを判定する。背景ぼかし処理は、人物の背景部分の明瞭度を変更可能な処理である。図6(a)におけるアイテム602が選択されるとS202はYesとなる。背景ぼかし処理が選択されたと判定した場合は、S203へ進み、そうでない場合は204へ進む。 In S202, the system control unit 101 determines whether background blurring processing has been selected. The background blurring process is a process that can change the clarity of the background part of a person. When item 602 in FIG. 6(a) is selected, S202 becomes Yes. If it is determined that the background blurring process has been selected, the process advances to S203; otherwise, the process advances to S204.

S203では、システム制御部101は、背景ぼかし処理を実行する。 In S203, the system control unit 101 executes background blurring processing.

S204では、システム制御部101は、RAW現像編集処理を終了するか否かを判定する。RAW現像編集処理は、メニューボタン201の選択によって、メニュー画面へ戻ったり、シャッターボタン115を押下して撮影画面へと移行したり、デジタルカメラ100の電源をOFFにするとS204はYesとなる。RAW現像編集処理を終了すると判定した場合は、図2の処理を終了し、そうでない場合は、S201へ進む。 In S204, the system control unit 101 determines whether to end the RAW development editing process. In the RAW development editing process, when the menu button 201 is selected to return to the menu screen, the shutter button 115 is pressed to move to the shooting screen, or the digital camera 100 is powered off, S204 becomes Yes. If it is determined that the RAW development editing process is to be finished, the process in FIG. 2 is finished; otherwise, the process advances to S201.

S205では、システム制御部101は、記録媒体124に記録されている画像の中に距離情報すなわち画像の深度に関する情報が付加されている画像があるか否かを判定する。距離情報は画像のExifデータとして記録されている。距離情報が付加されている画像があると判定した場合は、S208へ進み、そうでない場合は、206へ進む。 In S205, the system control unit 101 determines whether or not there is an image to which distance information, that is, information regarding the depth of the image is added, among the images recorded on the recording medium 124. The distance information is recorded as Exif data of the image. If it is determined that there is an image to which distance information has been added, the process advances to S208; otherwise, the process advances to S206.

S206では、システム制御部101は、エラーメッセージを表示部111に表示する。図6(c)のガイド605はエラーメッセージの一例を示している。距離情報のある画像がない場合には、仮想光源処理を行えないのでS207へ進み、RAW現像編集処理を終了する。図6(c)では、ユーザがガイド605の内容を読んだことを確認するためOKを示すアイテム606が表示される。 In S206, the system control unit 101 displays an error message on the display unit 111. A guide 605 in FIG. 6(c) shows an example of an error message. If there is no image with distance information, virtual light source processing cannot be performed, so the process advances to S207 and the RAW development editing process ends. In FIG. 6C, an item 606 indicating OK is displayed to confirm that the user has read the contents of the guide 605.

S207では、システム制御部101は、ユーザがOKを示すアイテム606を選択したか否かを判定する。アイテム606が選択されるとRAW現像編集処理が終了する。 In S207, the system control unit 101 determines whether the user has selected the item 606 indicating OK. When item 606 is selected, the RAW development editing process ends.

S208では、システム制御部101は、画像選択画面を表示部111に表示する。図6(b)には画像選択画面の一例を示す。画像選択画面では、記録媒体124に表示されている画像と共に、画像を選択することを示すガイド603や、後述する選択した画像に対して仮想光源の方向を変更する編集を行うための詳細設定を示すアイテム604が表示される。 In S208, the system control unit 101 displays an image selection screen on the display unit 111. FIG. 6(b) shows an example of the image selection screen. On the image selection screen, along with the image displayed on the recording medium 124, a guide 603 indicating image selection and detailed settings for editing the selected image to change the direction of the virtual light source, which will be described later, are displayed. The item 604 shown is displayed.

S209では、システム制御部101は、画像の選択をするか否かを判定する。表示部111に表示されている画像が1枚の場合には、表示中の画像をユーザが選択しているものとして、S209の判定はYesとする。S215で後述するように画像が1枚表示(シングル再生)されている場合には、十字キー202の左右キー203c、dを用いて表示する画像を切り替えること(画像送り)が可能である。 In S209, the system control unit 101 determines whether to select an image. If there is only one image displayed on the display unit 111, it is assumed that the user has selected the currently displayed image, and the determination in S209 is Yes. When one image is displayed (single playback) as described later in S215, it is possible to switch the displayed image (image forwarding) using the left and right keys 203c and d of the cross key 202.

画像選択画面では図6(b)に示すように画像が1枚表示されていてもいいし、複数枚が同時に表示(マルチ再生)されていてもよい。なお、S208に遷移して最初は図6(b)に示すように最新の画像1枚とガイド603やアイテム604が表示されるが、操作部200に含まれる不図示の縮小ボタンや、タッチ操作でピンチインをすると、表示される画像の枚数を増やすことができる。複数枚の画像が表示されている場合には、いずれかの画像を選択する操作がされるとS209がYesとなる。S209において画像が選択されたと判定した場合は、S210へ進む。 On the image selection screen, one image may be displayed as shown in FIG. 6(b), or a plurality of images may be displayed simultaneously (multiple reproduction). Note that when the process moves to S208, the latest image, a guide 603, and an item 604 are initially displayed as shown in FIG. You can increase the number of images displayed by pinching in. If a plurality of images are displayed, if an operation is performed to select one of the images, the result in S209 becomes Yes. If it is determined in S209 that an image has been selected, the process advances to S210.

S210では、システム制御部101は、表示部111に画像を表示する。 In S210, the system control unit 101 displays an image on the display unit 111.

S211では、システム制御部101は、表示中の画像の距離情報(深度情報)と、画像内に顔が検出されているか否かを示す顔情報を取得する。 In S211, the system control unit 101 acquires distance information (depth information) of the image being displayed and face information indicating whether a face is detected in the image.

S212では、システム制御部101は、S211で取得した情報より、選択中の画像の顔情報より、顔があったか否かを判定する。顔情報により顔があるとされた場合は、S215へ進み、そうでない場合は、S213へ進む。 In S212, the system control unit 101 determines whether or not there is a face based on the face information of the image being selected based on the information acquired in S211. If it is determined that there is a face based on the face information, the process advances to S215; otherwise, the process advances to S213.

S213では、システム制御部101は、エラーメッセージを表示部111に表示する。図6(d)にはエラーメッセージの一例を示しており、ガイド608に示すように顔を検出できなかったことを示すガイドを表示する。さらに、ユーザがガイド608の内容を読んだことを確認するためOKを示すアイテム607が表示される。 In S213, the system control unit 101 displays an error message on the display unit 111. FIG. 6D shows an example of an error message, and a guide 608 indicating that a face could not be detected is displayed. Further, an item 607 indicating OK is displayed to confirm that the user has read the contents of the guide 608.

S214では、システム制御部101は、ユーザがOKを示すアイテム607を選択したか否かを判定する。アイテム607が選択されるとS215へ進む。 In S214, the system control unit 101 determines whether the user has selected the item 607 indicating OK. When item 607 is selected, the process advances to S215.

S215では、システム制御部101は、画像送りがされたか否かを判定する。画像送りは、十字キー202の左右キー202c、dや、タッチ操作での横方向へのタッチムーブにより行うことができる。画像送り(表示する画像の切り替え)がされたと判定した場合は、S216へ進み、そうでない場合は、S218へ進む。 In S215, the system control unit 101 determines whether or not image forwarding has been performed. Image forwarding can be performed by using the left and right keys 202c and 202d of the cross key 202, or by touch movement in the horizontal direction using a touch operation. If it is determined that image forwarding (switching of images to be displayed) has been performed, the process advances to S216; otherwise, the process advances to S218.

S216では、システム制御部101は、仮想光源編集処理を実行するか否かを判定する。仮想光源編集処理とは、人物の顔への仮想光源の状態を仮想的な光源を用いてその方向や強さ等を変更することであり、図6(b)に示すアイテム604の詳細設定を選択することにより実行可能である。仮想光源編集処理を実行すると判定された場合は、S217に進み、そうでない場合は、S218へ進む。 In S216, the system control unit 101 determines whether to execute virtual light source editing processing. The virtual light source editing process is to change the direction, intensity, etc. of the virtual light source on a person's face using a virtual light source, and the detailed settings of item 604 shown in FIG. 6(b) are It can be executed by selecting. If it is determined that the virtual light source editing process is to be executed, the process advances to S217; otherwise, the process advances to S218.

S217では、システム制御部101は、仮想光源編集処理を実行する。仮想光源編集処理の詳細は、図3を用いて説明する。 In S217, the system control unit 101 executes virtual light source editing processing. Details of the virtual light source editing process will be explained using FIG. 3.

S218では、システム制御部101は、画像の再編集を行うか否かを判定する。後述するように、各画像に対して仮想光源編集処理を行うと、編集した内容が保存され、保存された内容に対してさらに編集処理を継続することができる。つまり、以前の編集では仮想光源の方向を設定した状態で内容を保存すると、保存された仮想光源の方向はそのままで、今回は仮想光源の光の強さの調整を行うことができる。画像の再編集を行うと判定した場合は、S219に進み、そうでない場合はS221へ進む。なお、再編集のほかにも、前回編集した内容をリセットすることもできる。 In S218, the system control unit 101 determines whether to re-edit the image. As will be described later, when virtual light source editing processing is performed on each image, the edited content is saved, and further editing processing can be continued on the saved content. In other words, if you saved the contents with the direction of the virtual light source set in the previous edit, the direction of the saved virtual light source will remain as is, but this time you can adjust the light intensity of the virtual light source. If it is determined that the image should be re-edited, the process advances to S219; otherwise, the process advances to S221. In addition to re-editing, you can also reset the previously edited content.

S219では、システム制御部101は、編集データを取得する。編集データは選択した画像の距離情報や顔情報と共にExifに記録されていてもいいし、別途記録媒体124に記録されていてもよい。S218がYesと判定されて仮想光源編集処理に進んだ場合には、S219で取得した編集データをもとに図3の処理が行われる。 In S219, the system control unit 101 acquires the edited data. The editing data may be recorded in Exif together with the distance information and face information of the selected image, or may be recorded separately on the recording medium 124. If it is determined Yes in S218 and the process proceeds to virtual light source editing processing, the processing in FIG. 3 is performed based on the editing data acquired in S219.

S220では、システム制御部101は、仮想光源編集処理を実行する。仮想光源編集処理の詳細は、図3を用いて説明する。 In S220, the system control unit 101 executes virtual light source editing processing. Details of the virtual light source editing process will be explained using FIG. 3.

S221では、システム制御部101は、RAW現像メニュー画面に戻るか否かを判定する。RAW現像メニュー画面に戻るには、メニューボタン201を押下することにより戻ることができる。RAW現像メニュー画面に戻ると判定した場合は、S201へ進み、そうでない場合は、S216へ進む。 In S221, the system control unit 101 determines whether to return to the RAW development menu screen. To return to the RAW development menu screen, press the menu button 201 to return. If it is determined to return to the RAW development menu screen, the process advances to S201; otherwise, the process advances to S216.

次に、図3を用いて本実施形態における仮想光源編集処理について説明をする。この処理は、不揮発性メモリ114に記録されたプログラムをシステムメモリ112に展開してシステム制御部101が実行することで実現する。図3の処理は図2のS217またはS220に進むと開始する。 Next, virtual light source editing processing in this embodiment will be explained using FIG. 3. This processing is realized by loading a program recorded in the nonvolatile memory 114 into the system memory 112 and executing it by the system control unit 101. The process in FIG. 3 starts when the process advances to S217 or S220 in FIG.

S301では、システム制御部101は、表示部111に設定画面を表示する。図6(e)には設定画面の一例を示している。設定画面では、S209において選択された画像(撮像画像)と共に、各編集を行うためのアイテムが複数表示される。ここで、仮想光源編集処理において編集可能な仮想光源の状態を変更する処理について、設定画面に表示されるアイテムと共に説明をする。 In S301, the system control unit 101 displays a setting screen on the display unit 111. FIG. 6(e) shows an example of a setting screen. On the setting screen, a plurality of items for editing are displayed together with the image (captured image) selected in S209. Here, the process of changing the state of the virtual light source that can be edited in the virtual light source editing process will be explained together with the items displayed on the setting screen.

アイテム609は、仮想光源照射範囲を3段階で変更する処理を行うためのアイテムである。仮想光源照射範囲は狭い、標準、広いから選択可能である。 Item 609 is an item for performing a process of changing the virtual light source irradiation range in three stages. The virtual light source irradiation range can be selected from narrow, standard, and wide.

アイテム610は、仮想光源の明るさを3段階で変更する処理を行うためのアイテムである。仮想光源の明るさは弱、中、強から選択可能である。 Item 610 is an item for performing a process of changing the brightness of the virtual light source in three stages. The brightness of the virtual light source can be selected from weak, medium, and strong.

アイテム611は、選択する顔を変更するためのアイテムである。本実施形態においては複数の顔が検出されている場合に、仮想光源を照射する中心となる顔を選択することができる。ユーザが仮想光源の方向を右方向と設定すると、選択した顔の(編集を行っているユーザから見て)右方向から仮想光源が当たるように画像処理が行われる。このとき、他の顔が選択中の顔の(編集を行っているユーザから見て)右側にいる場合には、その他の顔の真ん中あたりに光が当たっていたり、左方向から光が当たっているようになる。つまり、ある顔に右側から仮想光源をあてたい場合には、その顔を選択したほうがユーザの所望の画像処理がされる。アイテム611を選択することにより、ユーザは仮想光源を当てる中心となる被写体を切り替えることができる。 Item 611 is an item for changing the face to be selected. In this embodiment, when a plurality of faces are detected, it is possible to select the face that will be the center of irradiation with the virtual light source. When the user sets the direction of the virtual light source to the right, image processing is performed so that the virtual light source hits the selected face from the right (as viewed from the user who is editing). At this time, if another face is on the right side of the currently selected face (as seen from the user editing), the light may be hitting the other face in the middle, or the light may be hitting it from the left. It becomes like being there. In other words, if you want to illuminate a certain face with a virtual light source from the right side, selecting that face will allow the user to perform the desired image processing. By selecting item 611, the user can switch the subject to which the virtual light source is applied.

アイテム612は、編集をリセットするためのアイテムであり、アイテム613は編集を保存するためのアイテムである。 Item 612 is an item for resetting edits, and item 613 is an item for saving edits.

アイテム614は、画像選択画面に戻るためのアイテムであり、アイテム615は、仮想光源の照射方向を示すアイテムである。さらにアイテム616は選択中の顔を示す(選択されていない顔を識別可能に示す)ためのアイテムである。 Item 614 is an item for returning to the image selection screen, and item 615 is an item indicating the irradiation direction of the virtual light source. Furthermore, item 616 is an item for indicating the selected face (distinguishably indicating the unselected face).

S302では、システム制御部101は、INFOボタン206が押下されたか否かを判定する。INFOボタン206が押下されたと判定した場合は、S303へ進み、そうでない場合はS304へ進む。 In S302, the system control unit 101 determines whether the INFO button 206 has been pressed. If it is determined that the INFO button 206 has been pressed, the process advances to S303; otherwise, the process advances to S304.

S303では、システム制御部101は、表示アイテムの変更設定を行う。図6(e)では設定画面においてはアイテム609からアイテム616が表示されることを説明した。仮想光源を用いて画像の編集を行う場合には、ユーザは被写体への光のかかり具合や雰囲気などを確認しながら編集作業を行う。よって、アイテムの表示のONとOFFを可能としている。INFOボタン206が押下されると、図6(g)に示すようにアイテム609からアイテム614、616が非表示になる。アイテム615は仮想光源の照射方向を示すアイテムであるので、表示したままにする。 In S303, the system control unit 101 performs settings for changing display items. In FIG. 6E, it has been explained that items 609 to 616 are displayed on the setting screen. When editing an image using a virtual light source, the user performs the editing work while checking the amount of light on the subject, the atmosphere, and the like. Therefore, it is possible to turn on and off the display of items. When the INFO button 206 is pressed, items 614 and 616 from item 609 are hidden as shown in FIG. 6(g). Since item 615 is an item indicating the irradiation direction of the virtual light source, it remains displayed.

S304では、システム制御部101は、顔選択をする指示がされたか否かを判定する。つまり、アイテム611が選択されたか否かを判定する。顔選択をする指示がされたと判定した場合は、S305へ進み、そうでない場合は、S306へ進む。 In S304, the system control unit 101 determines whether an instruction to select a face has been given. That is, it is determined whether item 611 has been selected. If it is determined that an instruction to select a face has been given, the process advances to S305; otherwise, the process advances to S306.

S305では、システム制御部101は、顔選択処理を実行する。顔選択処理は、図4を用いて後述する。 In S305, the system control unit 101 executes face selection processing. The face selection process will be described later using FIG. 4.

S306では、システム制御部101は、仮想光源の明るさ設定を変更する指示がされたか否かを判定する。つまり、アイテム610が選択されたか否かを判定する。明るさ設定を変更する指示がされたと判定した場合は、S307へ進み、そうでない場合は、S308へ進む。 In S306, the system control unit 101 determines whether an instruction to change the brightness setting of the virtual light source has been given. In other words, it is determined whether item 610 has been selected. If it is determined that an instruction to change the brightness setting has been given, the process advances to S307; otherwise, the process advances to S308.

S307では、システム制御部101は、仮想光源の明るさをユーザの指示に応じて変更する。アイテム610が選択されると、強、中、小の3段階を示すアイテムを表示し、ユーザが明るさの強さを選択可能にする。 In S307, the system control unit 101 changes the brightness of the virtual light source according to the user's instruction. When item 610 is selected, items indicating three levels of brightness, high, medium, and low, are displayed, allowing the user to select the intensity of brightness.

S308では、システム制御部101は、仮想光源の範囲を変更する指示がされたか否かを判定する。つまり、アイテム609が選択されたか否かを判定する。範囲を変更する指示がされたと判定した場合は、S309へ進み、そうでない場合は、S310へ進む。 In S308, the system control unit 101 determines whether an instruction to change the range of the virtual light source has been given. In other words, it is determined whether item 609 has been selected. If it is determined that an instruction to change the range has been given, the process advances to S309; otherwise, the process advances to S310.

S309では、システム制御部101は、仮想光源照射範囲をユーザ指示に応じて変更する。アイテム3段階で変更する処理を行うためのアイテムである。アイテム609が選択されると、仮想光源照射範囲が狭い、標準、広いの3段階を示すアイテムを表示し、ユーザが範囲を選択可能にする。 In S309, the system control unit 101 changes the virtual light source irradiation range according to the user's instruction. This item is used to perform a process of changing items in three stages. When item 609 is selected, items indicating three levels of the virtual light source irradiation range: narrow, standard, and wide are displayed, allowing the user to select the range.

S310では、システム制御部101は、画像上(アイテムを含まない)でのタップ操作がされたか否かを判定する。画像内であってもアイテム609-614の表示されている範囲がタップされたら、S310はNoとする。タップ操作がされたと判定した場合は、S311へ進み、そうでない場合は、S313へ進む。 In S310, the system control unit 101 determines whether a tap operation has been performed on the image (not including an item). If the displayed range of items 609-614 is tapped even within the image, S310 is set as No. If it is determined that a tap operation has been performed, the process advances to S311; otherwise, the process advances to S313.

S311では、システム制御部101は、エラーメッセージを表示部111に表示する。図6(f)のガイド617はS311で表示するエラーメッセージの一例であり、タッチムーブで仮想光源の向きを変更可能であることを示している。本実施形態においては、設定画面に表示されるアイテムの選択する操作と、仮想光源の方向を変更する操作とを区別するためにタッチムーブ操作によって仮想光源の方向を変更可能にしている。よって、アイテム609-614の表示されていない画像上の領域がタップされたと判定した場合は、エラーメッセージを表示する。タップ操作での仮想光源の方向の変更を受け付けないようにすることで、アイテムを選択しようとしたユーザのタッチ位置がアイテムの位置からずれてしまい、仮想光源の方向が意図せず変更されることを防ぐことができる。 In S311, the system control unit 101 displays an error message on the display unit 111. A guide 617 in FIG. 6F is an example of an error message displayed in S311, and indicates that the direction of the virtual light source can be changed by touch movement. In this embodiment, the direction of the virtual light source can be changed by a touch move operation in order to distinguish between the operation of selecting an item displayed on the setting screen and the operation of changing the direction of the virtual light source. Therefore, if it is determined that an area on the image where the items 609-614 are not displayed has been tapped, an error message is displayed. By not accepting changes in the direction of the virtual light source through tap operations, the touch position of the user attempting to select an item may shift from the position of the item, causing the direction of the virtual light source to change unintentionally. can be prevented.

S312では、システム制御部101は、ガイド617と共に表示されるOKを示すアイテム618が選択されたか否かを判定する。ユーザがアイテム618を選択すると、ユーザがガイド617を確認したとして、S313へ進む。 In S312, the system control unit 101 determines whether the item 618 indicating OK displayed together with the guide 617 has been selected. When the user selects item 618, it is assumed that the user has confirmed guide 617, and the process advances to S313.

S313では、システム制御部101は、タッチムーブが検出されたか否かを判定する。タッチムーブを受け付ける領域は、本実施形態においては設定画面の全範囲である。タッチムーブが検出されたと判定した場合は、S314へ進み、そうえない場合はS315へ進む。 In S313, the system control unit 101 determines whether a touch move is detected. In this embodiment, the area that accepts touch moves is the entire range of the setting screen. If it is determined that a touch move has been detected, the process advances to S314; otherwise, the process advances to S315.

S314では、システム制御部101は、タッチムーブ処理を実行する。タッチムーブ処理については図5を用いて説明をする。 In S314, the system control unit 101 executes touch move processing. The touch move process will be explained using FIG. 5.

S315では、システム制御部101は、回転部材操作が検出されたか否かを判定する。回転部材操作とは、電子ダイヤル205またはコントローラホイール204への回転操作である。回転部材への操作が検出された場合には、S316へ進み、そうでない場合は、317へ進む。 In S315, the system control unit 101 determines whether a rotating member operation has been detected. The rotation member operation is a rotation operation on the electronic dial 205 or the controller wheel 204. If an operation on the rotating member is detected, the process advances to S316; otherwise, the process advances to S317.

S316では、システム制御部101は、回転部材操作処理を実行する。回転部材操作処理については図9を用いて説明をする。 In S316, the system control unit 101 executes rotating member operation processing. The rotating member operation process will be explained using FIG. 9.

S317では、システム制御部101は、十字ボタン操作を検出したか否かを判定する。十字ボタン202のいずれかのキーが操作された場合には、S317の判定はYesとなり、S318へ進み、そうでない場合は、S319へ進む。 In S317, the system control unit 101 determines whether or not a cross button operation has been detected. If any key of the cross button 202 has been operated, the determination in S317 is Yes, and the process advances to S318; otherwise, the process advances to S319.

S318では、システム制御部101は、十字ボタン処理を実行する。十字ボタン処理については図10を用いて説明をする。 In S318, the system control unit 101 executes cross button processing. The cross button processing will be explained using FIG. 10.

S319では、システム制御部101は、仮想光源の編集のリセットを指示する操作がされたか否かを判定する。つまり、アイテム612が選択されたか否かを判定する。リセットが指示されたと判定した場合は、S320へ進み、そうでない場合は、S322へ進む。 In S319, the system control unit 101 determines whether an operation instructing to reset editing of the virtual light source has been performed. That is, it is determined whether item 612 has been selected. If it is determined that a reset has been instructed, the process advances to S320; otherwise, the process advances to S322.

S320では、システム制御部101は、アイテム615の示す仮想光源の方向を中央に戻す。アイテム615は仮想光源の方向を示している。仮想光源の方向を変更すると図6(h)のアイテム615に示すように、アイテム615aが中央から移動するが、S320において再び中央の位置に戻る。 In S320, the system control unit 101 returns the direction of the virtual light source indicated by item 615 to the center. Item 615 indicates the direction of the virtual light source. When the direction of the virtual light source is changed, item 615a moves from the center as shown in item 615 in FIG. 6(h), but returns to the center position again in S320.

S321では、システム制御部101は、仮想光源の編集を初期設定に戻す。つまり、仮想光源の強さや範囲などが変更されても初期設定に戻す。 In S321, the system control unit 101 returns the editing of the virtual light source to the initial settings. In other words, even if the intensity or range of the virtual light source is changed, it returns to the initial settings.

S322では、システム制御部101は、編集を保存する指示がされたか否かを判定する。つまり、OKを示すアイテム613が選択されたか否かを判定する。S322において編集を保存する指示がされたと判定した場合は、S323へ進み、そうでない場合は、S324へ進む。 In S322, the system control unit 101 determines whether an instruction to save the edit has been given. That is, it is determined whether the item 613 indicating OK is selected. If it is determined in S322 that an instruction to save the edit has been given, the process advances to S323; otherwise, the process advances to S324.

S323では、システム制御部101は、仮想光源の編集情報を保存し、記録媒体124に記録する。 In S323, the system control unit 101 saves the virtual light source editing information and records it on the recording medium 124.

S324では、システム制御部101は、編集画面の表示を終了する指示がされたか否かを判定する。つまり、アイテム614が選択されたか否かを判定する。編集画面の表示を終了する指示がされたと判定した場合は、図2のS221へ戻り、そうでない場合は、S302に戻る。 In S324, the system control unit 101 determines whether an instruction to end the display of the editing screen has been given. That is, it is determined whether item 614 has been selected. If it is determined that an instruction to end the display of the editing screen has been given, the process returns to S221 in FIG. 2; otherwise, the process returns to S302.

次に、図4を用いて本実施形態における顔選択処理について説明をする。この処理は、不揮発性メモリ114に記録されたプログラムをシステムメモリ112に展開してシステム制御部101が実行することで実現する。図4の処理は図3のS305に進むと開始する。 Next, the face selection process in this embodiment will be explained using FIG. 4. This processing is realized by loading a program recorded in the nonvolatile memory 114 into the system memory 112 and executing it by the system control unit 101. The process in FIG. 4 starts when the process advances to S305 in FIG.

S401では、システム制御部101は、図2のS211で取得した顔情報に基づき、顔が複数検出されているか否かを判定する。顔が複数検出されていると判定した場合は、S402へ進み、そうでない場合は、図4の処理を終了する。 In S401, the system control unit 101 determines whether a plurality of faces have been detected based on the face information acquired in S211 of FIG. If it is determined that a plurality of faces have been detected, the process advances to S402, and if not, the process of FIG. 4 ends.

S402では、システム制御部101は、表示部111に顔選択画面を表示する。顔選択画面においては、ユーザが仮想光源の照射方向を変更する中心となる被写体(顔)を切り替えることができる。なお、画像と共に記録されている顔に関する情報に基づき、切替可能な顔が決まる。例えば、顔が小さすぎたり、ぼけていたりする場合には、画像内に被写体がいたとしても顔として検出されない可能性が高く、顔選択画面においてその顔が選択できない可能性が高い。図6(i)には、顔選択画面の一例を示す。アイテム616は現在選択中の顔を示すアイテム(顔枠)である。アイテム616の横には矢印を示すマーク620が表示されており、アイテム616を移動可能であることを示している。また、アイテム619は選択可能な顔を示すアイテム(顔枠)である。 In S402, the system control unit 101 displays a face selection screen on the display unit 111. On the face selection screen, the user can switch the subject (face) on which the irradiation direction of the virtual light source is to be changed. Note that the face that can be switched is determined based on the information regarding the face recorded together with the image. For example, if a face is too small or blurred, even if there is a subject in the image, there is a high possibility that it will not be detected as a face, and there is a high possibility that the face cannot be selected on the face selection screen. FIG. 6(i) shows an example of a face selection screen. Item 616 is an item (face frame) indicating the currently selected face. A mark 620 indicating an arrow is displayed next to the item 616, indicating that the item 616 can be moved. Further, item 619 is an item (face frame) indicating a selectable face.

本実施形態においては、顔を選択する操作を受け付ける画面と、照射方向を変える画面(効果のかかり具合を変える画面)とを切り替えており、一方の操作を受付可能なときには他方の操作は受け付けないようにしている。これにより、照射方向を変えるときに選択可能な顔を示すアイテム619が表示されないので、ユーザは効果のかかり具合を確認しやすくなりつつも、選択画面において選択中の顔と選択可能な顔とを確認することができる。 In this embodiment, the screen that accepts the operation to select a face and the screen that changes the irradiation direction (the screen that changes the degree of effect) are switched, and when one operation can be accepted, the other operation is not accepted. That's what I do. As a result, the item 619 indicating selectable faces is not displayed when changing the irradiation direction, making it easier for the user to check the extent of the effect. It can be confirmed.

また、ユーザがタッチ操作で顔を選択しようとしたときに、タッチ位置が動き、意図しない照射方向に変更されてしまう可能性を低減することができる。また、ユーザが照射方向をタッチ操作で変更しようとしているときに、意図せず顔をタッチしてしまい選択する顔が意図せず変更されてしまう可能性を低減することができる。ただし、タッチ操作ではなく、操作部材への操作で顔の選択や照射方向の変更を行っている場合には、顔の選択を受け付ける画面と照射方向を変える画面とが同じでもよい。 Furthermore, when the user attempts to select a face by touch operation, it is possible to reduce the possibility that the touch position will move and the illumination direction will be changed to an unintended direction. Further, when the user is trying to change the irradiation direction by touch operation, it is possible to reduce the possibility that the selected face will be changed unintentionally due to unintentionally touching a face. However, if a face is selected or the irradiation direction is changed by operating an operating member rather than by a touch operation, the screen for accepting the face selection and the screen for changing the irradiation direction may be the same.

S403では、システム制御部101は、選択する顔を変更可能な操作部材への操作がされたか否かを判定する。選択する顔は、マルチコントローラー208を左右へ移動させる操作、または選択可能な顔の位置が現在選択中の顔の上下にある場合には、上下へマルチコントローラー208を移動させることにより選択可能である。さらに、コントローラーホイール204の回転によっても選択する顔を変更可能である。選択する顔を変更可能な操作部材への操作がされたと判定した場合は、S404へ進み、そうでない場合は、S406へ進む。 In S403, the system control unit 101 determines whether an operation member that can change the face to be selected has been operated. The face to be selected can be selected by moving the multi-controller 208 left or right, or if the selectable faces are above or below the currently selected face, by moving the multi-controller 208 up or down. . Furthermore, the face to be selected can also be changed by rotating the controller wheel 204. If it is determined that an operation has been performed on the operating member that can change the face to be selected, the process advances to S404; otherwise, the process advances to S406.

S404では、システム制御部101は、選択する顔を変更する処理を行い、選択中の顔を示すアイテム616の表示を更新する処理を行う。図6(j)は、図6(i)から選択する顔が変更された場合の表示例を示している。図6(i)では、アイテム616の表示されている顔が右側にいる被写体から左側にいる被写体に映っている。 In S404, the system control unit 101 performs processing to change the face to be selected, and performs processing to update the display of item 616 indicating the currently selected face. FIG. 6(j) shows a display example when the face to be selected from FIG. 6(i) is changed. In FIG. 6(i), the face displayed in item 616 is reflected from the subject on the right side to the subject on the left side.

S405では、システム制御部101は、S404において選択された顔を中心として仮想光源を照射する画像処理を行う。選択する顔が変更されるときは、直前に選択していた顔において設定されていた照射方向や明るさのパラメータをそのまま引き継いでS405においても画像処理を行う。ただし、顔が切り替わる度に初期方向から仮想光源を照射する画像処理をするようにしてもよい。直前に選択していた顔において設定されていた照射方向をそのまま引き継ぐ場合、例えば、画像全体として右側が暗いような場合で、ユーザが右方向から光を当てたいが、どのユーザを中心として仮想光源を照射するのが最も適切かを比較したい場合に有効である。ユーザは元の仮想光源の照射方向を変更する画面に戻って照射方向を変更する操作をしなくても、顔選択画面において顔を切り替えるだけで、選択する顔による効果のかかり具体を比較することができる。この時、選択された顔に対して仮想光源の効果を反映するタイミングは、変更後即でも良いし、一定時間経過後でも良い。 In S405, the system control unit 101 performs image processing to illuminate the face selected in S404 with a virtual light source. When the face to be selected is changed, the parameters of the irradiation direction and brightness that were set for the face selected immediately before are taken over as they are, and image processing is performed in S405 as well. However, image processing may be performed to irradiate the virtual light source from the initial direction each time the face changes. If you want to inherit the illumination direction that was set for the previously selected face, for example, if the right side of the image is dark as a whole, and the user wants to shine light from the right direction, which user is the center of the virtual light source? This is useful when you want to compare which is the most appropriate way to irradiate. Users can simply switch faces on the face selection screen and compare the effects of the faces they select, without having to go back to the original screen to change the direction of illumination of the virtual light source and change the direction of illumination. Can be done. At this time, the timing to reflect the effect of the virtual light source on the selected face may be immediately after the change or after a certain period of time has elapsed.

S406では、システム制御部101は、選択可能な顔に対してタッチ操作がされたか否かを判定する。選択可能な顔、すなわち、アイテム619が選択された顔に対してタッチ操作がされたと判定した場合は、S407へ進み、そうでない場合は、S409へ進む。 In S406, the system control unit 101 determines whether a touch operation has been performed on a selectable face. If it is determined that a touch operation has been performed on a selectable face, that is, a face with item 619 selected, the process advances to S407; otherwise, the process advances to S409.

S407とS408の処理は、S404とS405の処理と同様の処理である。 The processing in S407 and S408 is similar to the processing in S404 and S405.

S409では、システム制御部101は、顔選択画面から設定画面に戻る操作がされたか否かを判定する。顔選択画面から設定画面にはアイテム620の選択により行うことができる。S409でYesと判定された場合は、図4の処理を終了し、そうでない場合は、S403に戻る。 In S409, the system control unit 101 determines whether an operation to return from the face selection screen to the setting screen has been performed. The setting screen can be accessed from the face selection screen by selecting item 620. If the determination in S409 is Yes, the process in FIG. 4 is ended, and if not, the process returns to S403.

次に、図5を用いて本実施形態におけるタッチムーブ処理について説明をする。この処理は、不揮発性メモリ114に記録されたプログラムをシステムメモリ112に展開してシステム制御部101が実行することで実現する。図5の処理は図3のS314に進むと開始する。 Next, touch move processing in this embodiment will be explained using FIG. 5. This processing is realized by loading a program recorded in the nonvolatile memory 114 into the system memory 112 and executing it by the system control unit 101. The process in FIG. 5 starts when the process advances to S314 in FIG.

S501では、システム制御部101は、選択中の顔を示すアイテム616を非表示にする。図6(h)は、タッチムーブ処理が行われた際の設定画面の一例を示しており、図6(e)に示す設定画面の状態からタッチムーブが開始されたことが検知されるとアイテム616が非表示になる図6(h)の状態になる。アイテム616を表示することにより選択中の顔がどの顔であるか分かるとユーザは現在仮想光源が照射されている中心の顔がわかりやすい。一方で、顔の周りにアイテムが表示されたままだと照射の効果がどのように変わったのか、分かりにくくなる。よって、タッチムーブが開始し、ユーザが照射方向を変えた(効果のかかり具合を変更し始めた)ことに応じてアイテム616を非表示にする。これにより、ユーザは仮想光源の効果が把握しやすくなるとともに、選択中の被写体を(仮想光源の効果を変更する直前までアイテム616が表示されているので)認識できる。なお、アイテム616を非表示にしなくても、選択中の顔の周りとアイテムが重なる領域を小さくしたり、アイテム616の表示を薄くするなどしてもよい。 In S501, the system control unit 101 hides the item 616 indicating the currently selected face. FIG. 6(h) shows an example of a setting screen when touch move processing is performed, and when it is detected that a touch move has started from the state of the setting screen shown in FIG. 6(e), the item The state shown in FIG. 6(h) is reached in which 616 is hidden. By displaying the item 616, the user can easily identify which face is currently being selected, and which face is currently illuminated by the virtual light source. On the other hand, if items remain displayed around the face, it becomes difficult to understand how the irradiation effect has changed. Therefore, when the touch move starts and the user changes the irradiation direction (starts to change the extent of the effect), the item 616 is hidden. This makes it easier for the user to grasp the effect of the virtual light source, and also allows the user to recognize the selected subject (because the item 616 is displayed until just before changing the effect of the virtual light source). Note that even if the item 616 is not hidden, the area where the item overlaps with the face being selected may be made smaller, or the display of the item 616 may be made thinner.

S502では、システム制御部101は、S313において検出されたタッチムーブの方向と長さを検出(ベクトル)する。 In S502, the system control unit 101 detects (vector) the direction and length of the touch move detected in S313.

ここで、仮想光源の照射方向と照射方向を示すアイテムの表示について図7を用いて説明をする。 Here, the irradiation direction of the virtual light source and the display of items indicating the irradiation direction will be explained using FIG. 7.

仮想光源は選択中の顔を中心に顔前面を覆う半球の表面領域701を移動させることができる。仮想光源は常時、顔の中心を向いているため半球の表面領域を移動させることによって光源の方向を自由に変えることができる。画面に表示されるアイテム615は半球の表面領域701を平面に投影した状態を表しており、仮想光源の可動範囲707、仮想光源のカレント位置を表す指標708(図6においてはアイテム615a)、半球の表面領域の頂点を示す中心指標709で構成される。仮想光源の代表的な位置を702~706(順番に位置AからEとする)で示す。これらの位置は照射方向を示すアイテム上でそれぞれ710~714に示すようにあらわされる。照射方向以外の明るさや照射範囲のパラメータが一定であれば、アイテム615aの位置がどこであっても選択中の顔にかかる仮想光源の強さは同じである。つまり、中心指標709の近くに指標708が近づいたからと言って、仮想光源が選択中の顔に近づいたり、光が強くなるような効果がかかるわけではない。あくまでも、仮想光源が移動可能な半球を2次元で表現したものがアイテム615(可能範囲707)である。仮想光源の照射方向、すなわち仮想光源の半球の表面領域上の位置はタッチパネル200aや操作部材120を使用して変更できる。さらに、仮想光源の方向の変更に応じて照射方向を示すアイテム上の指標も移動するため、操作者は設定画面上でアイテム615aを移動させる感覚で仮想光源の照射方向を変更することができる。 The virtual light source can move a hemispherical surface area 701 covering the front of the face around the selected face. Since the virtual light source always faces the center of the face, the direction of the light source can be freely changed by moving the surface area of the hemisphere. Item 615 displayed on the screen represents a state in which the surface area 701 of the hemisphere is projected onto a plane, and includes a movable range 707 of the virtual light source, an index 708 (item 615a in FIG. 6) representing the current position of the virtual light source, and a hemisphere. The center index 709 indicates the apex of the surface area. Representative positions of the virtual light sources are shown as 702 to 706 (positions A to E in order). These positions are represented as shown at 710 to 714, respectively, on the item indicating the irradiation direction. If parameters such as brightness and irradiation range other than the irradiation direction are constant, the intensity of the virtual light source applied to the selected face will be the same regardless of the position of the item 615a. In other words, just because the index 708 approaches the center index 709, it does not mean that the virtual light source approaches the selected face or that the light becomes stronger. Item 615 (possible range 707) is a two-dimensional representation of a hemisphere in which the virtual light source can move. The irradiation direction of the virtual light source, that is, the position of the virtual light source on the surface area of the hemisphere can be changed using the touch panel 200a or the operating member 120. Furthermore, since the indicator on the item indicating the irradiation direction also moves according to the change in the direction of the virtual light source, the operator can change the irradiation direction of the virtual light source as if moving the item 615a on the setting screen.

設定画面においてアイテム615の線上にアイテム615aが移動した場合には、さらに外側にはアイテム615aは移動できない。よって、例えば、アイテム615aがアイテム615の右端に移動している場合に、ユーザが右斜め上方向のタッチムーブをした場合には、アイテム615aは上方向にだけ(上方向のタッチムーブのベクトル分)、円周上を沿うように移動する。 When the item 615a is moved on the line of the item 615 on the setting screen, the item 615a cannot be moved further outside. Therefore, for example, if item 615a is moving to the right end of item 615 and the user performs a touch move diagonally upward to the right, item 615a moves only upward (by the vector of the upward touch move). ), move along the circumference.

以上が、図7に関する説明である。 The above is the explanation regarding FIG.

S503では、システム制御部101は、S502で検出したタッチムーブのベクトルに基づき、仮想光源の移動量、すなわち、半球状においてどの角度分移動するのかを算出する。 In S503, the system control unit 101 calculates the amount of movement of the virtual light source, that is, the angle by which the virtual light source moves in the hemisphere, based on the vector of the touch movement detected in S502.

S504では、システム制御部101は、現在の仮想光源の位置からS503において算出した移動量、移動させた位置を算出する。 In S504, the system control unit 101 calculates the amount of movement and the moved position calculated in S503 from the current position of the virtual light source.

S505では、システム制御部101は、S504で算出された位置に基づいてアイテム615の表示を更新する。 In S505, the system control unit 101 updates the display of the item 615 based on the position calculated in S504.

S506では、システム制御部101は、S514で算出された位置に基づいて仮想光源を照射する方向を変更した画像処理を行う。以上のように、仮想光源の照射方向は、ユーザのタッチ開始位置に関わらず、タッチムーブの量、方向に応じて、タッチムーブの開始時の設定から変更される。すなわち、右方向からの仮想光源を照射している場合には、設定画面の左側をタッチムーブすることにより照射方向を変更することができるので、タッチ操作を行うユーザの指が選択中の顔にかからず、視認性が低下しない。また、設定画面上で仮想光源を示すアイテムを画像に重畳して表示せず、選択中の被写体に対する仮想光源の方向が分かるアイテム615を表示するので、相対的にタッチ操作を行っていても現在の照射方向が分かる。設定画面上で仮想光源を示すアイテムを画像に重畳して表示すると、仮想光源の照射範囲が狭く設定された場合に選択中の顔に重畳して、もしくは非常に近い位置にアイテムが表示される可能性がある。よって、本実施形態で説明したようなアイテム615を表示することによりユーザの設定に関わらず、視認性良くユーザは照射方向の変更操作をタッチ操作で行うことができる。また、図4で説明をした顔の選択では、画像上のタッチ位置にある被写体を選択するが(絶対位置指定)、照射方向を変更するときには相対的な位置指定をする。効果をかける被写体の選択では直接画面上で選択する対象をタッチしたほうがユーザは分かりやすいが、画像の効果は相対的に変更ができたほうが被写体に対する効果が分かりやすい。 In S506, the system control unit 101 performs image processing in which the direction in which the virtual light source is irradiated is changed based on the position calculated in S514. As described above, the irradiation direction of the virtual light source is changed from the setting at the start of the touch move, depending on the amount and direction of the touch move, regardless of the user's touch start position. In other words, if a virtual light source is emitting from the right direction, the direction of emitting light can be changed by touching and moving the left side of the settings screen, so that the user's finger touching the face is on the selected face. There is no difference in visibility. Additionally, the item 615 that shows the direction of the virtual light source relative to the selected subject is displayed instead of displaying the item indicating the virtual light source superimposed on the image on the settings screen, so even if you perform a relative touch operation, the current The direction of irradiation can be determined. When displaying an item indicating a virtual light source superimposed on an image on the settings screen, if the irradiation range of the virtual light source is set to be narrow, the item will be displayed superimposed on or very close to the selected face. there is a possibility. Therefore, by displaying the item 615 as described in this embodiment, the user can perform a touch operation to change the irradiation direction with good visibility, regardless of the user's settings. Furthermore, in the face selection described with reference to FIG. 4, the subject at the touch position on the image is selected (absolute position specification), but when changing the irradiation direction, a relative position is specified. When selecting an object to apply an effect to, it is easier for the user to directly touch the object to be selected on the screen, but it is easier for the user to understand the effect on the object if the image effect can be changed relatively.

S507では、システム制御部101は、タッチムーブが停止したか否かを判定する。タッチムーブが停止したと判定した場合は、S508へ進み、そうでない場合は、S502へ進む。 In S507, the system control unit 101 determines whether the touch movement has stopped. If it is determined that the touch move has stopped, the process advances to S508; otherwise, the process advances to S502.

S508では、システム制御部101は、表示カウントTの計測を開始する。表示カウントTは、S501において非表示にした選択中の顔を示すアイテム615を再び表示するまでの時間をカウントするための時間である。タッチムーブが停止されてから本実施例においては、タッチムーブが開始されないまま2秒間経過するとアイテム615が再び表示される。 In S508, the system control unit 101 starts measuring the display count T. The display count T is a time for counting the time until the item 615 indicating the selected face that was hidden in S501 is displayed again. In this embodiment, after the touch move is stopped, item 615 is displayed again if two seconds have elapsed without starting the touch move.

S509では、システム制御部101は、表示カウントTが2秒経過したか否かを判定する。表示カウントTが2秒経過したと判定した場合は、S510に進み、アイテム615を再び表示する。表示カウントTが2秒経過していないと判定した場合はS511に進む。 In S509, the system control unit 101 determines whether the display count T has elapsed for 2 seconds. If it is determined that the display count T has elapsed for 2 seconds, the process advances to S510 and item 615 is displayed again. If it is determined that the display count T has not elapsed for 2 seconds, the process advances to S511.

S511では、システム制御部101は、タッチムーブが再び開始されたか否かを判定し、再びタッチムーブが開始したと判定した場合は、S502へ進み、そうでない場合は、S509へ進む。 In S511, the system control unit 101 determines whether the touch move has started again. If it is determined that the touch move has started again, the process proceeds to S502; otherwise, the process proceeds to S509.

ここで、本実施形態におけるタッチムーブ操作による仮想光源の照射方向の変更操作について図8を用いて説明する。 Here, the operation of changing the irradiation direction of the virtual light source by the touch move operation in this embodiment will be explained using FIG. 8.

前述の通りタッチ操作による照射方向の変更はタッチムーブの方向と長さに応じて相対的に行われる。操作者が目的の位置(すなわち照射方向を示す位置)まで仮想光源を移動させるには、図8(a)に示すように、同じ向きに数回タッチムーブ(ドラッグ)を繰り返しアイテム615aの位置が目的の位置に到達するようにする。また、アイテム615aが図7で説明をした半球領域の外周に到達した状態でさらに半球を超える領域に向けてタッチムーブを継続すると、図8(b)に示すようにタッチムーブ方向に応じて指標は外周に沿うように移動する。つまり、図8(a)では、ユーザのタッチムーブのベクトルがX0とすると、アイテム615aはX0に対応するX‘0移動する。図8(a)における移動の結果、アイテム615の円周上にアイテム615aが位置した状態から、ユーザが右上方向にさらにタッチムーブをすると以下のようになる。図8(b)におけるタッチムーブのベクトルをX1とし、x軸、y軸それぞれの移動量をx1、y1とする。このとき、アイテム615aはx1に応じたx2の移動量、x軸方向に移動するように、アイテム615の円周に沿って移動する。 As described above, changing the irradiation direction by touch operation is performed relatively according to the direction and length of the touch movement. In order for the operator to move the virtual light source to the desired position (that is, the position indicating the irradiation direction), as shown in FIG. Make sure you reach your desired location. In addition, when the item 615a reaches the outer periphery of the hemisphere region explained in FIG. 7 and continues the touch movement toward the region beyond the hemisphere, the index is adjusted according to the touch movement direction as shown in FIG. 8(b). moves along the outer periphery. That is, in FIG. 8A, if the vector of the user's touch movement is X0, the item 615a moves by X'0 corresponding to X0. As a result of the movement in FIG. 8A, when the item 615a is located on the circumference of the item 615, when the user further touches the upper right direction, the following occurs. The vector of touch movement in FIG. 8(b) is assumed to be X1, and the amounts of movement on the x- and y-axes are x1 and y1, respectively. At this time, the item 615a moves along the circumference of the item 615 so as to move in the x-axis direction by a moving amount x2 corresponding to x1.

また、アイテム615aの位置がタッチムーブ操作と相対的な関係で移動するため、設定画面のどの位置でタッチムーブ操作しても任意の方向に指標を移動させることができる。特にデジタルカメラ100やスマートフォンなどの画面が小さい機器では操作性が向上する。 Further, since the position of the item 615a moves relative to the touch move operation, the indicator can be moved in any direction by performing the touch move operation at any position on the setting screen. In particular, operability is improved for devices with small screens such as the digital camera 100 and smartphones.

一方で、画面上の位置を絶対位置で指定する方法は直感的に位置を認識しやすい利点がある。本実施形態では選択可能な顔は画面の端であってもよいので、相対的に仮想光源の照射方向を変更可能であれば、図8(c)のように選択中の顔が画面の右端にいても操作がしやすい。 On the other hand, the method of specifying the position on the screen using an absolute position has the advantage that the position can be easily recognized intuitively. In this embodiment, the face that can be selected may be at the edge of the screen, so if the direction of irradiation of the virtual light source can be changed relatively, the face being selected may be at the right edge of the screen as shown in FIG. 8(c). Easy to operate even when you are in the room.

次に、図9を用いて本実施形態における回転部材操作処理について説明をする。この処理は、不揮発性メモリ114に記録されたプログラムをシステムメモリ112に展開してシステム制御部101が実行することで実現する。図9の処理は図3のS316に進むと開始する。 Next, the rotating member operation process in this embodiment will be explained using FIG. 9. This processing is realized by loading a program recorded in the nonvolatile memory 114 into the system memory 112 and executing it by the system control unit 101. The process in FIG. 9 starts when the process advances to S316 in FIG.

S901では、システム制御部101は、図5のS501と同様に選択中の顔を示すアイテム616を非表示にする。 In S901, the system control unit 101 hides the item 616 indicating the currently selected face, similar to S501 in FIG.

S902では、システム制御部101は、コントローラーホイール204の右回転操作を受けたかどうかを判定する。右回転操作を受け付けた場合はS903へ進み、そうでない場合はS907へ進む。 In S902, the system control unit 101 determines whether the controller wheel 204 has been rotated clockwise. If a clockwise rotation operation is accepted, the process advances to S903; otherwise, the process advances to S907.

S903では、システム制御部101は、照射方向を示すアイテム(すなわちアイテム615a)が可動範囲の曲線上(アイテム615の円周上)にあるかを判定する。例えば図7のB、C、D、Eに示す位置は曲線上にあるということを示している。曲線上にある場合はS904へ進み、そうでない場合はS905へ進む。なお、アイテム615aの位置で判定するのではなく、現在設定されている照射方向が、照射可能範囲の端であるか(境界の位置)否かを判定してもよい。 In S903, the system control unit 101 determines whether the item indicating the irradiation direction (ie, item 615a) is on the curve of the movable range (on the circumference of item 615). For example, the positions shown at B, C, D, and E in FIG. 7 are on the curve. If it is on the curve, the process advances to S904; otherwise, the process advances to S905. Note that instead of determining based on the position of the item 615a, it may be determined whether the currently set irradiation direction is at the end of the irradiation possible range (boundary position).

S904では、システム制御部101は、アイテム615aが可動範囲全体の下半分の領域内にあるかを判定する。ここでいう、可動範囲全体の下半分の領域とは、図11(a)の領域1111で示す領域を指している。下半分の領域にある場合はS918へ進み、そうでない場合はS905へ進む。 In S904, the system control unit 101 determines whether the item 615a is within the lower half of the entire movable range. The lower half region of the entire movable range here refers to the region shown by region 1111 in FIG. 11(a). If it is in the lower half area, the process advances to S918; otherwise, the process advances to S905.

本実施形態では回転部材が操作された場合に、可動範囲の移動指示方向の曲線上にある場合には、アイテム615aを移動しないようにする。例えば、図11-2のFの位置にアイテム615aがあった場合に、コントローラーホイール204を右回転されたことに応じて図11-2のGの位置に移動するようにしたとする。コントローラーホイール204の右回転は下方向への移動指示である。この場合、コントローラーホイール204を右回転させたはずが、下方向に移動するために曲線上(つまり円周上)ではアイテム615aが左回転方向への移動(1123)がおこる。1122から1124の移動は円周上の移動としては左回転方向の移動となるため、ユーザの操作部材の回転方向とはアイテム615aの移動方向が逆向きになってしまうが、アイテム615aを移動しないようにすることでユーザに違和感を与えない。つまり、ユーザの操作性が直感的になる。 In this embodiment, when the rotating member is operated, the item 615a is not moved if it is on the curve in the movement instruction direction of the movable range. For example, suppose that the item 615a is located at position F in FIG. 11-2 and is moved to position G in FIG. 11-2 in response to the controller wheel 204 being rotated clockwise. Rotating the controller wheel 204 to the right is a downward movement instruction. In this case, the controller wheel 204 should have been rotated clockwise, but in order to move downward, the item 615a is moved counterclockwise on the curve (that is, on the circumference) (1123). Since the movement from 1122 to 1124 is a movement in the counterclockwise rotation direction as a movement on the circumference, the movement direction of the item 615a is opposite to the rotation direction of the user's operating member, but the item 615a is not moved. By doing so, the user does not feel uncomfortable. In other words, the user's operability becomes intuitive.

S905では、システム制御部101は、アイテム615aを1メモリ下へ移動させる処理を行う。例えばこの移動は、図7のBの位置から図11(b)のB’の位置移動のように下方向にアイテム615aが移動することを表している。つまり、コントローラーホイール204を右回転すると、アイテム615aは下方向(つまり図11(e)のY成分のプラス方向)に移動することがわかる。 In S905, the system control unit 101 performs processing to move the item 615a down one memory. For example, this movement represents that the item 615a moves downward from the position B in FIG. 7 to the position B' in FIG. 11(b). That is, it can be seen that when the controller wheel 204 is rotated clockwise, the item 615a moves downward (that is, in the positive direction of the Y component in FIG. 11(e)).

S906では、システム制御部101は、ユーザ操作に応じて仮想光源を照射する方向を変更した画像処理を行う。コントローラーホイール204を右回転した場合は、下方向にアイテム615aが移動し、照射方向が下方向に移動する。 In S906, the system control unit 101 performs image processing in which the direction of irradiation with the virtual light source is changed in accordance with the user's operation. When the controller wheel 204 is rotated clockwise, the item 615a moves downward, and the irradiation direction moves downward.

S907では、システム制御部101は、コントローラーホイール204の左回転操作を受けたかどうかを判定する。左回転操作を受け付けた場合はS908へ進み、そうでない場合はS921へ進む。 In S907, the system control unit 101 determines whether the controller wheel 204 has been rotated to the left. If a counterclockwise rotation operation is accepted, the process advances to S908; otherwise, the process advances to S921.

S908では、システム制御部101は、アイテム615aが可動範囲の曲線上(アイテム615の円周上)にあるかを判定する。曲線上にある場合はS909へ進み、そうでない場合はS910へ進む。 In S908, the system control unit 101 determines whether the item 615a is on the curve of the movable range (on the circumference of the item 615). If it is on the curve, the process advances to S909; otherwise, the process advances to S910.

S909では、システム制御部101は、アイテム615aが可動範囲全体の上半分の領域内にあるかを判定する。ここでいう、可動範囲全体の上半分の領域とは、図11(a)の領域1112で示す領域を指している。上半分の領域にある場合はS918へ進み、そうでない場合はS910へ進む。 In S909, the system control unit 101 determines whether the item 615a is within the upper half of the entire movable range. The upper half region of the entire movable range here refers to the region shown by region 1112 in FIG. 11(a). If it is in the upper half area, the process advances to S918; otherwise, the process advances to S910.

S910では、システム制御部101は、アイテム615aを1メモリ上へ移動させる処理を行う。 In S910, the system control unit 101 performs processing to move the item 615a up one memory.

S911では、システム制御部101は、電子ダイヤル205の右回転操作を受けたかどうかを判定する。右回転操作を受け付けた場合はS912へ進み、そうでない場合はS915へ進む。 In S911, the system control unit 101 determines whether the electronic dial 205 has been rotated clockwise. If a clockwise rotation operation is accepted, the process advances to S912; otherwise, the process advances to S915.

S912では、システム制御部101は、アイテム615aが可動範囲の曲線上(アイテム615の円周上)にあるかを判定する。曲線上にある場合はS913へ進み、そうでない場合はS914へ進む。 In S912, the system control unit 101 determines whether the item 615a is on the curve of the movable range (on the circumference of the item 615). If it is on the curve, the process advances to S913; otherwise, the process advances to S914.

S913では、システム制御部101は、アイテム615aが可動範囲全体の右半分の領域内にあるかを判定する。ここでいう、可動範囲全体の右半分の領域とは、図11(a)の領域1113で示す領域を指している。右半分の領域にある場合はS918へ進み、そうでない場合はS914へ進む。 In S913, the system control unit 101 determines whether the item 615a is within the right half of the entire movable range. The right half region of the entire movable range here refers to the region shown by region 1113 in FIG. 11(a). If it is in the right half area, the process advances to S918; otherwise, the process advances to S914.

S914では、システム制御部101は、アイテム615aを1メモリ右へ移動させる処理を行う。 In S914, the system control unit 101 performs processing to move the item 615a one memory to the right.

S915では、システム制御部101は、アイテム615aが可動範囲の曲線上(アイテム615の円周上)にあるかを判定する。曲線上にある場合はS916へ進み、そうでない場合はS917へ進む。S911においてNoと判定されたのでS915~S917の処理は、電子ダイヤル205が左回転された際の処理である。 In S915, the system control unit 101 determines whether the item 615a is on the curve of the movable range (on the circumference of the item 615). If it is on the curve, the process advances to S916; otherwise, the process advances to S917. Since the determination in S911 is No, the processes in S915 to S917 are the processes to be performed when the electronic dial 205 is rotated to the left.

S916では、システム制御部101は、アイテム615aが可動範囲全体の左半分の領域内にあるかを判定する。ここでいう、可動範囲全体の左半分の領域とは、図11(a)の領域1114で示す領域を指している。左半分の領域にある場合はS918へ進み、そうでない場合はS917へ進む。 In S916, the system control unit 101 determines whether the item 615a is within the left half of the entire movable range. The left half region of the entire movable range here refers to the region shown by region 1114 in FIG. 11(a). If it is in the left half area, the process advances to S918; otherwise, the process advances to S917.

S917では、システム制御部101は、アイテム615aを1メモリ左へ移動させる処理を行う。なお、本実施形態では、回転部材の所定量の回転(1パルス分)において1メモリ分アイテム615aを移動するとしているが、この1メモリとは照射方向においては例えば5度や10度といった角度分に相当する移動量を示している。 In S917, the system control unit 101 performs processing to move the item 615a one memory to the left. In this embodiment, it is assumed that the item 615a is moved by one memory in a predetermined amount of rotation (one pulse) of the rotating member, but this one memory is an angle such as 5 degrees or 10 degrees in the irradiation direction. The amount of movement corresponding to is shown.

S918では、システム制御部101は、図5のS508と同様に表示カウントTの計測を開始する。 In S918, the system control unit 101 starts measuring the display count T similarly to S508 in FIG.

S919では、システム制御部101は、図5のS509と同様に表示カウントTが2秒経過したか否かを判定する。表示カウントTが2秒経過したと判定した場合は、S920に進み、アイテム615を再び表示する。表示カウントTが2秒経過していないと判定した場合はS921に進む。 In S919, the system control unit 101 determines whether two seconds have elapsed for the display count T, similarly to S509 in FIG. If it is determined that the display count T has elapsed for 2 seconds, the process advances to S920 and the item 615 is displayed again. If it is determined that the display count T has not elapsed for 2 seconds, the process advances to S921.

S921では、システム制御部101は、回転部材操作が再び検出されたか否かを判定し、検出された場合は、S902へ進み、そうでない場合は、S919へ進む。 In S921, the system control unit 101 determines whether or not a rotating member operation has been detected again. If detected, the process proceeds to S902; otherwise, the process proceeds to S919.

次に、図10を用いて本実施形態における十字ボタン操作処理について説明をする。この処理は、不揮発性メモリ114に記録されたプログラムをシステムメモリ112に展開してシステム制御部101が実行することで実現する。図10の処理は図3のS318に進むと開始する。 Next, the cross button operation process in this embodiment will be explained using FIG. This processing is realized by loading a program recorded in the nonvolatile memory 114 into the system memory 112 and executing it by the system control unit 101. The process in FIG. 10 starts when the process advances to S318 in FIG.

S1000では、システム制御部101は、図5のS501と同様に、選択中の顔を示すアイテム616を非表示にする。図5で説明をしたタッチ操作であっても、十字ボタンや回転部材を用いた操作部材であっても、仮想光源の照射方向を変更する指示がされたことに応じて選択中の顔を示すアイテムが非表示になり、照射の効果が分かりやすくなるようにする。 In S1000, the system control unit 101 hides the item 616 indicating the currently selected face, similar to S501 in FIG. Whether it is the touch operation explained in Figure 5 or the operation member using the cross button or rotating member, the selected face is displayed in response to an instruction to change the irradiation direction of the virtual light source. Items will be hidden, making it easier to understand the effects of irradiation.

S1001では、システム制御部101は、十字ボタン202の下キー202bが押下されたか否かを判定する。下キー202bが押下されたと判定した場合は、S1002へ進み、そうでない場合は、S1007に進む。 In S1001, the system control unit 101 determines whether the down key 202b of the cross button 202 has been pressed. If it is determined that the down key 202b has been pressed, the process advances to S1002; otherwise, the process advances to S1007.

S1002では、システム制御部101は、図9のS903と同様に、照射方向を示すアイテム(すなわちアイテム615a)が可動範囲の曲線上(アイテム615の円周上)にあるかを判定する。曲線上にある場合はS1003へ進み、そうでない場合はS1005へ進む。 In S1002, similar to S903 in FIG. 9, the system control unit 101 determines whether the item indicating the irradiation direction (ie, item 615a) is on the curve of the movable range (on the circumference of item 615). If it is on the curve, the process advances to S1003; otherwise, the process advances to S1005.

S1003では、システム制御部101は、図9のS904と同様に、アイテム615aが可動範囲全体の下半分の領域内にあるかを判定する。下半分の領域にある場合はS1004へ進み、そうでない場合はS1005へ進む。 In S1003, the system control unit 101 determines whether the item 615a is within the lower half of the entire movable range, similar to S904 in FIG. If it is in the lower half area, the process advances to S1004; otherwise, the process advances to S1005.

S1004では、システム制御部101は、アイテム615aが可動範囲(曲線上)の最下部にあるか否かを判定する。すなわち、これ以上アイテム615aが下方向に移動できない位置にあるのかを判定する。これは、図7のDの状態である。アイテム615aが可動範囲の最下部にあると判定した場合は、S1025に進み、そうでない場合は、S1005へ進む。 In S1004, the system control unit 101 determines whether the item 615a is at the bottom of the movable range (on the curve). That is, it is determined whether the item 615a is in a position where it cannot be moved downward any further. This is the state D in FIG. If it is determined that the item 615a is at the bottom of the movable range, the process advances to S1025; otherwise, the process advances to S1005.

S1005では、システム制御部101は、アイテム615aを1メモリ下方向になるように、可動範囲の曲線に沿って移動する。つまりアイテム615aの移動距離は1メモリよりも大きくなるが、図11(e)のy軸プラス方向に1メモリ分座標が変わるように、曲線上を移動する。 In S1005, the system control unit 101 moves the item 615a one memory downward along the curve of the movable range. In other words, the moving distance of the item 615a is greater than one memory, but the item 615a moves on a curve so that the coordinates change by one memory in the positive direction of the y-axis in FIG. 11(e).

S1006では、システム制御部101は、図9のS905と同様に、アイテム615aを1メモリ下へ移動させる処理を行う。 In S1006, the system control unit 101 performs processing to move the item 615a one memory lower, similar to S905 in FIG.

S1007では、システム制御部101は、図9のS906と同様に、ユーザ操作に応じて仮想光源を照射する方向を変更した画像処理を行う。 In S1007, the system control unit 101 performs image processing in which the direction in which the virtual light source is irradiated is changed according to the user's operation, similar to S906 in FIG.

S1008では、システム制御部101は、十字ボタン202の上キー202aが押下されたか否かを判定する。上キー202aが押下されたと判定した場合は、S1009へ進み、そうでない場合は、S1014に進む。 In S1008, the system control unit 101 determines whether the up key 202a of the cross button 202 has been pressed. If it is determined that the up key 202a has been pressed, the process advances to S1009; otherwise, the process advances to S1014.

S1009では、システム制御部101は、図9のS903と同様に、照射方向を示すアイテム(すなわちアイテム615a)が可動範囲の曲線上(アイテム615の円周上)にあるかを判定する。曲線上にある場合はS1010へ進み、そうでない場合はS1013へ進む。 In S1009, the system control unit 101 determines whether the item indicating the irradiation direction (ie, item 615a) is on the curve of the movable range (on the circumference of item 615), similarly to S903 in FIG. If it is on the curve, the process advances to S1010; otherwise, the process advances to S1013.

S1010では、システム制御部101は、図9のS909と同様に、アイテム615aが可動範囲全体の上半分の領域内にあるかを判定する。上半分の領域にある場合はS1011へ進み、そうでない場合はS1013へ進む。 In S1010, the system control unit 101 determines whether the item 615a is within the upper half of the entire movable range, similar to S909 in FIG. If it is in the upper half area, the process advances to S1011; otherwise, the process advances to S1013.

S1011では、システム制御部101は、アイテム615aが可動範囲(曲線上)の最上部にあるか否かを判定する。すなわち、これ以上アイテム615aが上方向に移動できない位置にあるのかを判定する。これは図7のBの状態である。アイテム615aが可動範囲の最上部にあると判定した場合は、S1025に進み、そうでない場合は、S1012へ進む。 In S1011, the system control unit 101 determines whether the item 615a is at the top of the movable range (on the curve). That is, it is determined whether the item 615a is in a position where it cannot be moved upward any further. This is the state shown in FIG. 7B. If it is determined that the item 615a is at the top of the movable range, the process advances to S1025; otherwise, the process advances to S1012.

S1012では、システム制御部101は、アイテム615aを1メモリ上方向になるように、可動範囲の曲線に沿って移動する。つまりアイテム615aの移動距離は1メモリよりも大きくなるが、図11(e)のy軸マイナス方向に1メモリ分座標が変わるように、曲線上を移動する。 In S1012, the system control unit 101 moves the item 615a one memory upward along the curve of the movable range. In other words, the moving distance of the item 615a is greater than one memory, but the item 615a moves on a curve such that the coordinates change by one memory in the negative direction of the y-axis in FIG. 11(e).

S1013では、システム制御部101は、アイテム615aを1メモリ上へ移動させる処理を行う。 In S1013, the system control unit 101 performs processing to move the item 615a up one memory.

S1014では、システム制御部101は、十字ボタン202の右キー202dが押下されたか否かを判定する。右キー202dが押下されたと判定した場合は、S1015へ進み、そうでない場合は、S1020に進む。 In S1014, the system control unit 101 determines whether the right key 202d of the cross button 202 has been pressed. If it is determined that the right key 202d has been pressed, the process advances to S1015; otherwise, the process advances to S1020.

S1015では、システム制御部101は、図9のS903と同様に、照射方向を示すアイテム(すなわちアイテム615a)が可動範囲の曲線上(アイテム615の円周上)にあるかを判定する。曲線上にある場合はS1016へ進み、そうでない場合はS1019へ進む。 In S1015, the system control unit 101 determines whether the item indicating the irradiation direction (ie, item 615a) is on the curve of the movable range (on the circumference of item 615), similarly to S903 in FIG. If it is on the curve, proceed to S1016; otherwise, proceed to S1019.

S1016では、システム制御部101は、図9のS913と同様に、アイテム615aが可動範囲全体の右半分の領域内にあるかを判定する。右半分の領域にある場合はS1017へ進み、そうでない場合はS1019へ進む。 In S1016, the system control unit 101 determines whether the item 615a is within the right half of the entire movable range, similar to S913 in FIG. If it is in the right half area, the process advances to S1017; otherwise, the process advances to S1019.

S1017では、システム制御部101は、アイテム615aが可動範囲(曲線上)の最右部(右端)にあるか否かを判定する。すなわち、これ以上アイテム615aが右方向に移動できない位置にあるのかを判定する。これは図7のCの状態である。アイテム615aが可動範囲の最右部にあると判定した場合は、S1025に進み、そうでない場合は、S1018へ進む。 In S1017, the system control unit 101 determines whether the item 615a is at the rightmost part (right end) of the movable range (on the curve). That is, it is determined whether the item 615a is in a position where it cannot be moved any further to the right. This is the state shown in C of FIG. If it is determined that the item 615a is at the rightmost part of the movable range, the process advances to S1025; otherwise, the process advances to S1018.

S1018では、システム制御部101は、アイテム615aを1メモリ右方向になるように、可動範囲の曲線に沿って移動する。つまりアイテム615aの移動距離は1メモリよりも大きくなるが、図11(e)のx軸プラス方向に1メモリ分座標が変わるように、曲線上を移動する。 In S1018, the system control unit 101 moves the item 615a one memory to the right along the curve of the movable range. In other words, the movement distance of the item 615a is greater than one memory, but the item 615a moves on a curve so that the coordinates change by one memory in the positive direction of the x-axis in FIG. 11(e).

S1019では、システム制御部101は、図9のS914と同様に、アイテム615aを1メモリ右へ移動させる処理を行う。 In S1019, the system control unit 101 performs processing to move the item 615a one memory to the right, similar to S914 in FIG.

S1020では、システム制御部101は、図9のS903と同様に、照射方向を示すアイテム(すなわちアイテム615a)が可動範囲の曲線上(アイテム615の円周上)にあるかを判定する。曲線上にある場合はS1021へ進み、そうでない場合はS1024へ進む。 In S1020, the system control unit 101 determines whether the item indicating the irradiation direction (ie, item 615a) is on the curve of the movable range (on the circumference of item 615), similarly to S903 in FIG. If it is on the curve, the process advances to S1021; otherwise, the process advances to S1024.

S1021では、システム制御部101は、図9のS916と同様に、アイテム615aが可動範囲全体の左半分の領域内にあるかを判定する。左半分の領域にある場合はS1022へ進み、そうでない場合はS1024へ進む。 In S1021, the system control unit 101 determines whether the item 615a is within the left half of the entire movable range, similar to S916 in FIG. If it is in the left half area, the process advances to S1022; otherwise, the process advances to S1024.

S1022では、システム制御部101は、アイテム615aが可動範囲(曲線上)の最左部(左端)にあるか否かを判定する。すなわち、これ以上アイテム615aが左方向に移動できない位置にあるのかを判定する。これは図7のEの状態である。アイテム615aが可動範囲の最左部にあると判定した場合は、S1025に進み、そうでない場合は、S1023へ進む。 In S1022, the system control unit 101 determines whether the item 615a is at the leftmost part (left end) of the movable range (on the curve). That is, it is determined whether the item 615a is in a position where it cannot be moved further to the left. This is the state E in FIG. If it is determined that the item 615a is at the leftmost part of the movable range, the process advances to S1025; otherwise, the process advances to S1023.

S1023では、システム制御部101は、アイテム615aを1メモリ左方向になるように、可動範囲の曲線に沿って移動する。つまりアイテム615aの移動距離は1メモリよりも大きくなるが、図11(e)のx軸マイナス方向に1メモリ分座標が変わるように、曲線上を移動する。 In S1023, the system control unit 101 moves the item 615a one memory to the left along the curve of the movable range. In other words, the moving distance of the item 615a is greater than one memory, but the item 615a moves on a curve so that the coordinates change by one memory in the negative direction of the x-axis in FIG. 11(e).

S1024では、システム制御部101は、図9のS917と同様に、アイテム615aを1メモリ左へ移動させる処理を行う。 In S1024, the system control unit 101 performs processing to move the item 615a one memory to the left, similar to S917 in FIG.

S1025~S1027は、図9のS918~S920と同様の処理である。 S1025 to S1027 are the same processes as S918 to S920 in FIG. 9.

S1028では、システム制御部101は、十字ボタン操作が再び検出されたか否かを判定し、検出された場合は、S1001へ進み、そうでない場合は、S1026へ進む。 In S1028, the system control unit 101 determines whether or not the cross button operation has been detected again. If detected, the process proceeds to S1001; otherwise, the process proceeds to S1026.

図11(f)~(i)を用いて、十字ボタン202(マルチコントローラー208)や回転操作部材が操作された時のアイテム615aの移動について説明をする。図11(f)~(i)は、移動前後のアイテム615aの様子を示している。十字ボタン202の下キー202b(マルチコントローラー208の下方向)が操作されると図11(f)のように、アイテム615aが移動する。このとき、コントローラーホイール204を右回転した場合にも、図11(f)のようにアイテム615aが移動する。一方で、図11(g)に示すように、移動前のアイテム615aが可動範囲の曲線上にある場合には、十字ボタン202の下キー202bが操作されると、曲線に沿って移動をする。 The movement of the item 615a when the cross button 202 (multi-controller 208) or the rotary operation member is operated will be explained using FIGS. 11(f) to (i). FIGS. 11(f) to (i) show the state of the item 615a before and after the movement. When the down key 202b of the cross button 202 (downward on the multi-controller 208) is operated, the item 615a moves as shown in FIG. 11(f). At this time, even when the controller wheel 204 is rotated clockwise, the item 615a moves as shown in FIG. 11(f). On the other hand, as shown in FIG. 11(g), if the item 615a before movement is on the curve of the movable range, when the down key 202b of the cross button 202 is operated, the item 615a moves along the curve. .

同様に、十字ボタン202の右キー202dが操作されると図11(h)のように、アイテム615aが移動する。このとき、電子ダイヤル205を右回転しても図11(h)のようにアイテム615aが移動する。アイテム615aが可動範囲の曲線上にある場合には、図11(i)に示すように、アイテム615aは曲線に沿って移動する。 Similarly, when the right key 202d of the cross button 202 is operated, the item 615a moves as shown in FIG. 11(h). At this time, even if the electronic dial 205 is rotated clockwise, the item 615a moves as shown in FIG. 11(h). When the item 615a is on the curve of the movable range, the item 615a moves along the curve, as shown in FIG. 11(i).

コントローラーホイール204や電子ダイヤル205の回転操作がされたときには、アイテム615aが可動範囲の曲線上(境界)にあるときには移動しない。 When the controller wheel 204 or the electronic dial 205 is rotated, the item 615a does not move if it is on the curve (boundary) of the movable range.

上述のように、本実施形態においては、十字ボタン202やマルチコントローラー208への操作では、曲線上に沿ったアイテム615aの移動を許可している。回転部材ではないので、移動の指示方向と操作方向とが一致している。よって、アイテム615aが操作方向と反対方向に移動しない限り、操作方向にだけ移動しなくても、操作方向に向かってさえいればユーザに違和感を与えにくい。つまり、右方向への指示をした場合、アイテム615aがX軸マイナス方向に移動しなければ、多少Y軸方向に移動したとしてもX軸プラス方向にさえ移動していれば、ユーザは操作方向とアイテム615aの移動方向があっていることが分かる。操作方向とアイテム615aの移動方向があってさえすれば、ユーザは操作方向に基づいてアイテム615aが移動していることが分かるので、直感的な操作をすることができる。一方で、右方向への指示をしているのに、X軸プラス方向には移動せず、Y軸方向のみに移動したり、X軸マイナス方向に移動すると操作方向に基づいてアイテム615aが移動していないようにユーザが感じる可能性が高い。このように、回転操作部材と、操作方向と移動指示方向が一致している操作部材とで、アイテム615aの移動処理を変更することによって、いずれの操作部材を操作してもユーザは操作性が高く操作することができる。 As described above, in this embodiment, when the cross button 202 or the multi-controller 208 is operated, the item 615a is allowed to move along a curved line. Since it is not a rotating member, the direction of movement and operation direction are the same. Therefore, as long as the item 615a does not move in the opposite direction to the operation direction, the user will not feel uncomfortable even if the item 615a does not move only in the operation direction, as long as it moves in the operation direction. In other words, when an instruction is given to the right, if the item 615a does not move in the negative direction of the X-axis, even if it moves slightly in the Y-axis direction, as long as it moves in the positive direction of the X-axis, the user can understand the operation direction. It can be seen that the moving direction of the item 615a is correct. As long as there is an operation direction and a moving direction of the item 615a, the user can understand that the item 615a is moving based on the operation direction, and therefore can perform an intuitive operation. On the other hand, even though the command is given to the right, if the item 615a does not move in the positive direction of the X-axis but moves only in the direction of the Y-axis or in the negative direction of the X-axis, the item 615a moves based on the operation direction. Users are likely to feel as if they have not done so. In this way, by changing the movement process of the item 615a between the rotating operation member and the operation member whose operation direction and movement instruction direction match, the user can achieve ease of operation no matter which operation member is operated. Can be operated at high speeds.

なお、十字ボタン操作処理において、操作部材については十字ボタンに限定せず、たとえば、ジョイスティックのように一部材で複数成分方向の操作ができるような部材で同様の処理をしてもよい。 Note that in the cross button operation processing, the operating member is not limited to the cross button, and similar processing may be performed using a member such as a joystick that can be operated in multiple component directions with a single member.

また、本実施形態ではコントローラーホイール204と電子ダイヤル205の回転部材のみ記載した。これに限らず、上記インジケータの表示面と回転軸が直交するような位置に配置されているすべての回転部材において上記処理(曲線上で回転部材を操作しても曲線上方向の移動をさせないようにする)を行うようにしてもよい。そのように制御することで、ユーザへ違和感のない操作を提供できる効果がある。 Further, in this embodiment, only the rotating members of the controller wheel 204 and the electronic dial 205 are described. Not limited to this, all rotating members placed at positions where the display surface of the indicator and the axis of rotation are perpendicular to each other are subject to the above process (so that even if the rotating member is operated on a curve, it will not move in the upward direction of the curve). ). By controlling in this way, it is possible to provide operations that do not make the user feel uncomfortable.

コントローラホイール204や電子ダイヤル205はそれぞれ一軸に沿った移動指示が可能であり、コントローラホイール204の移動方向であるY軸方向は、電子ダイヤル205の移動方向であるX軸に対して直行している。よって、X軸方向に移動したのに、他方の操作部材で移動可能な方向であるY軸方向にも移動してしまうとユーザがどちらの操作部材でどの方向に沿って移動するのか分からなくなってしまう可能性がある。一方で、十字キー202やマルチコントローラー208のように1つの操作部材において二軸に沿った移動指示が可能な場合には同じ操作部材内でX軸方向にもY軸方向への移動指示も可能である。よって、少なくとも指示方向にさえ移動していればユーザに違和感を与える可能性が低い。このように、操作部材が、一軸と二軸のいずれの移動指示が可能かによって、移動制御を変えることでユーザの操作性が向上する。操作部材への操作により移動指示が可能なX軸と、X軸と直行するY軸とは異なる軸に沿って形成される(囲われる)領域であれば、円の中での移動でなくても、図9、10の処理は有効である。つまり、ひし形や楕円形でも有効である。 The controller wheel 204 and the electronic dial 205 can each be instructed to move along one axis, and the Y-axis direction, which is the moving direction of the controller wheel 204, is perpendicular to the X-axis, which is the moving direction of the electronic dial 205. . Therefore, if the user moves in the X-axis direction but also moves in the Y-axis direction, which is the direction in which the other operating member can move, the user will not know which operating member to move in which direction. There is a possibility that it will be stored away. On the other hand, if a single operating member can instruct movement along two axes, such as the cross key 202 or multi-controller 208, it is also possible to instruct movement in both the X-axis direction and the Y-axis direction within the same operating member. It is. Therefore, as long as the user moves at least in the indicated direction, the user is unlikely to feel uncomfortable. In this way, the user's operability is improved by changing the movement control depending on whether the operating member is capable of instructing one-axis or two-axis movement. If the area is formed (enclosed) along axes that are different from the X axis, which can be instructed to move by operating the operating member, and the Y axis, which is orthogonal to the X axis, the movement is not in a circle. The processing in FIGS. 9 and 10 is also effective. In other words, a diamond or oval shape is also effective.

以上より、本実施形態による1つの効果としては、タッチ操作で仮想光源の照射方向を変更する際に、タッチ操作を行うユーザの指が選択中の顔にかからず、視認性が低下しない。また、選択中の被写体に対する仮想光源の方向が分かるアイテム615を表示するので、相対的にタッチ操作を行っていても現在の照射方向が分かる。よって、視認性良くユーザは照射方向の変更操作をタッチ操作で行うことができる。 As described above, one effect of the present embodiment is that when changing the irradiation direction of the virtual light source by touch operation, the finger of the user performing the touch operation does not cover the face being selected, so visibility does not deteriorate. Furthermore, since an item 615 is displayed that shows the direction of the virtual light source with respect to the selected subject, the current irradiation direction can be seen even if a relative touch operation is performed. Therefore, the user can perform a touch operation to change the irradiation direction with good visibility.

以上より、本実施形態による1つの効果としては、ユーザは仮想光源の効果が把握しやすくなるとともに、選択中の被写体を認識できる。 As described above, one effect of this embodiment is that the user can easily understand the effect of the virtual light source and can recognize the selected subject.

以上より、本実施形態による1つの効果としては、仮想光源の照射方向を回転操作部材で変更する場合に、ユーザが直感的な操作をすることができる。 As described above, one effect of this embodiment is that the user can perform an intuitive operation when changing the irradiation direction of the virtual light source using the rotary operation member.

次に、図12のフローチャートと図13の画面表示例を用いて、図3のS301の詳細設定表示の変形例について説明する。詳細設定表示の表示以外については、図1から図11を用いて説明をした実施形態と同様である。ただし、変形例では説明のために、アイテム615は表示せず、仮想光源を直接画像に重畳して表示(仮想光源1304)するものとしているが、アイテム615を表示してもよい。 Next, a modification of the detailed setting display in S301 in FIG. 3 will be described using the flowchart in FIG. 12 and the screen display example in FIG. 13. Components other than the detailed setting display are the same as those in the embodiment described using FIGS. 1 to 11. However, in the modified example, for the sake of explanation, the item 615 is not displayed and the virtual light source is directly superimposed on the image and displayed (virtual light source 1304), but the item 615 may be displayed.

図12は、S301の処理の詳細設定表示の変形例を説明するためのフローチャートである。 FIG. 12 is a flowchart for explaining a modification of the detailed setting display of the process in S301.

システム制御部101は、選択された画像に含まれる顔を検出する。顔が複数ある場合は、複数の顔を検出する。(S1202) The system control unit 101 detects a face included in the selected image. If there are multiple faces, multiple faces are detected. (S1202)

図13(a)~(e)は、詳細設定画面の表示処理を実行する時の画面表示例である。 FIGS. 13(a) to 13(e) are examples of screen displays when the detailed setting screen display process is executed.

図13(a)は、画像1300(撮像画像)に含まれる顔を検出している様子を示している。顔1302、顔1306を検出したことを示している。また、図13(a)には、画像1300と重畳して表示される仮想光源1304を表示している。仮想光源1304は、選択された顔に対して、光源を当てた時のような効果をかける処理を行う際の光源を当てる方向を示すアイテムである。また、仮想光源1304は、ユーザのタッチ操作に従って、相対位置で移動することができる。もしくは、十字キー202や回転操作部材を用いて移動可能である。仮想光源の移動については、図5、9、10と同様である。 FIG. 13A shows how a face included in an image 1300 (captured image) is being detected. This shows that a face 1302 and a face 1306 have been detected. Further, in FIG. 13(a), a virtual light source 1304 is displayed superimposed on the image 1300. The virtual light source 1304 is an item that indicates the direction in which a light source is applied to the selected face when performing processing to apply an effect similar to when a light source is applied. Further, the virtual light source 1304 can be moved in relative position according to the user's touch operation. Alternatively, it can be moved using the cross key 202 or the rotational operation member. The movement of the virtual light source is the same as in FIGS. 5, 9, and 10.

システム制御部101は、検出した顔に対して、その顔を囲う所定以上の幅の領域を設定する。(S1204) The system control unit 101 sets, for the detected face, an area of a predetermined width or more that surrounds the face. (S1204)

図13(b)は、検出した顔に対して、顔を囲う所定以上の幅の領域を設定している様子を示している。 FIG. 13(b) shows how a region having a width greater than a predetermined value surrounding the detected face is set for the detected face.

顔を囲う所定以上の幅の領域とは、仮想光源と顔領域との距離を所定以上離すよう移動した場合に、効果に変化がなくなる領域である。つまり、顔を認識した領域に所定の幅分だけ拡張した領域であり、顔に対して仮想光源による一定以上の効果がある領域のことを指している。一定以上の効果とは仮想光源がかかっていることが表示画面上で認識できるくらいの効果であり、一定以上の効果をかけられるだけ離れた位置が所定の幅となる。よって、同じ顔を選択していてもユーザが仮想光源の範囲を変えたり、明るさを変えるとS1204における幅が変わる。顔への画像処理の効果が分からなくくらいまで仮想光源が離れた位置に配置する可能性は低いので、所定の幅を設け、画像の縮小率が小さくならず、被写体の視認性が低下しないようにしつつ、操作性を向上させる。言い換えると、選択可能な被写体が表示部111(表示面)の中央領域にある場合には、画像を縮小せずに表示するが、中央領域にない場合には縮小する。 The area surrounding the face with a width equal to or greater than a predetermined value is an area where the effect does not change when the distance between the virtual light source and the face area is moved to a predetermined distance or more. In other words, it is an area expanded by a predetermined width from the area where the face is recognized, and refers to an area where the virtual light source has a certain or more effect on the face. The effect above a certain level is an effect that allows the user to recognize on the display screen that the virtual light source is applied, and the predetermined width is a position far enough away to be able to apply an effect above a certain level. Therefore, even if the same face is selected, if the user changes the range of the virtual light source or changes the brightness, the width in S1204 will change. Since it is unlikely that the virtual light source will be placed so far away that the effect of image processing on the face will not be noticeable, a certain width should be provided to ensure that the reduction ratio of the image does not become small and the visibility of the subject does not deteriorate. while improving operability. In other words, if the selectable subject is in the central area of the display unit 111 (display surface), the image is displayed without being reduced, but if it is not in the central area, it is reduced.

変形例では、顔として認識した領域の中心から、当該領域の端までの長さを1とした場合、所定の幅を0.7の長さとする。所定の幅が顔の領域に対して、小さすぎる場合は、デジタルカメラ100のような小さい表示部111に表示する際や、顔が画像の端に位置する場合に、タッチ操作をすると、仮想光源が顔に重なり、顔への効果がわかりづらいといったことがある。また、所定の幅が顔の領域に対して、大きすぎる場合は、後述する縮小率が大きくなり、画像の効果が確認しづらくなってしまうことがある。よって、顔の周りに閾値以上の幅がある場合には画像を縮小しない。 In a modified example, when the length from the center of the area recognized as a face to the edge of the area is 1, the predetermined width is set to 0.7. If the predetermined width is too small for the face area, when displaying on a small display unit 111 such as the digital camera 100 or when the face is located at the edge of the image, a touch operation may cause the virtual light source to may overlap with the face, making it difficult to see the effect on the face. Further, if the predetermined width is too large with respect to the face area, the reduction ratio described later becomes large, and it may become difficult to confirm the effect of the image. Therefore, if the width around the face is greater than or equal to the threshold, the image is not reduced.

図13(b)では、顔1302に、領域1308が設定されており、顔1306に、領域1310が設定されている。複数の顔を検出した場合は、顔ごとに領域を設定する。 In FIG. 13B, a region 1308 is set for a face 1302, and a region 1310 is set for a face 1306. If multiple faces are detected, set an area for each face.

顔を囲う所定以上の幅の領域の形状は、顔の検出領域を考慮した形状とする。図13は、顔の検出領域が四角であったため、四角の形状の領域であるが、顔の検出領域が丸であった場合は、丸の形状の領域でもよい。 The shape of the area that surrounds the face and has a width greater than or equal to a predetermined value is determined in consideration of the face detection area. In FIG. 13, the face detection area is a square, so it is a square-shaped area, but if the face detection area is a circle, it may be a round-shaped area.

システム制御部101は、S1204において設定した領域が、表示部111の表示範囲内に収まっているかを判定する。S1204における領域が複数ある場合は、複数の領域が表示部111の表示範囲内に収まっているかを判定する。表示部111の表示範囲内に収まっている場合は、S1210に進み、そうでない場合は、S1208に進む(S1206)。 The system control unit 101 determines whether the area set in S1204 falls within the display range of the display unit 111. If there are multiple areas in S1204, it is determined whether the multiple areas are within the display range of the display unit 111. If it falls within the display range of the display unit 111, the process advances to S1210; otherwise, the process advances to S1208 (S1206).

図13(b)の例では、領域1310が表示部111の表示範囲内に収まっていないと判定される。 In the example of FIG. 13(b), it is determined that the area 1310 is not within the display range of the display unit 111.

S1206で、表示部111の表示範囲内に収まっていないと判定した場合、システム制御部101は、S1204で設定した領域が表示部111の表示範囲内に収まるように、画像を縮小して表示するための縮小率を算出する(S1210)。つまり、顔が表示部111の端に近いほど、もしくは顔が大きいほど縮小率が大きくなり、画像が小さく表示される。 If it is determined in S1206 that the image is not within the display range of the display unit 111, the system control unit 101 reduces and displays the image so that the area set in S1204 fits within the display range of the display unit 111. A reduction rate for the image is calculated (S1210). In other words, the closer the face is to the edge of the display unit 111 or the larger the face, the greater the reduction ratio and the smaller the image is displayed.

システム制御部101は、表示部111にS1210で算出した縮小率の大きさで画像を表示する(S1212)。 The system control unit 101 displays the image on the display unit 111 at the size of the reduction ratio calculated in S1210 (S1212).

なお、S1206では、複数の顔の全てに対して判定を行うことを説明したが、これに限らず、選択中の顔に対してのみ判定を行ってもよい。選択中の顔に対してのみ判定を行うと、縮小率が小さくなり画像の視認性が大きくなる。全ての顔に対して判定を行うと、選択する顔を変更しても画像の表示サイズが変わらないので同じサイズで画像処理のための操作が継続できるので良い。また、縮小率は被写体の位置や大きさに関わらず、一定にしてもよい。 Note that in S1206, although it has been described that the determination is performed on all of the plurality of faces, the present invention is not limited to this, and the determination may be performed only on the selected face. If the determination is made only for the selected face, the reduction ratio will be reduced and the visibility of the image will be increased. If the determination is made for all faces, the display size of the image will not change even if the selected face is changed, so operations for image processing can be continued at the same size. Further, the reduction ratio may be constant regardless of the position and size of the subject.

図13(c)は、表示部111に表示している表示領域1312に対して、画像1300を縮小した画像1314を表示している様子を示す。図13(b)のように、領域1310が表示部111の範囲内に収まっていない場合には画像を縮小して表示する。領域1310が表示部111の表示領域1312に収まるように算出した縮小率で、画像1300を縮小して画像1314を表示している。画像を縮小して表示したため、仮想光源1304を顔1306の右側に配置することができる。 FIG. 13C shows a state in which an image 1314 obtained by reducing the image 1300 is displayed in a display area 1312 displayed on the display unit 111. As shown in FIG. 13B, if the area 1310 does not fall within the range of the display unit 111, the image is displayed in a reduced size. Image 1314 is displayed by reducing image 1300 at a reduction ratio calculated so that area 1310 fits within display area 1312 of display unit 111. Since the image is displayed in a reduced size, the virtual light source 1304 can be placed on the right side of the face 1306.

S1206で、表示部111の表示範囲内に収まっていると判定した場合、システム制御部101は、S1212のように画像を縮小せずに表示する。(S1208)。つまり、同じ画像であってもS1208で表示されるときの方がS1212で画像が表示されるときよりも、大きく画像が表示される。 If it is determined in S1206 that the image is within the display range of the display unit 111, the system control unit 101 displays the image without reducing it as in S1212. (S1208). In other words, even if the image is the same, the image is displayed larger when it is displayed in S1208 than when it is displayed in S1212.

図13(d)は、画像1318に含まれる顔を検出している様子を示している。顔1320、顔1322を検出したことを示している。また、図13(d)には、仮想光源1328を表示している。 FIG. 13(d) shows how a face included in an image 1318 is being detected. This shows that a face 1320 and a face 1322 have been detected. Furthermore, a virtual light source 1328 is displayed in FIG. 13(d).

図13(e)は、検出した顔に対して、その顔を囲う所定以上の幅の領域を設定している様子を示している。顔1320は、領域1324が設定されており、顔1322は、領域1326設定されている。図13(e)では、領域1324も領域1326も表示部111の表示範囲内に収まっているため、画像1318を縮小せずに表示する。画像を縮小しなくても、仮想光源1328を顔1322の右側や他の方向にも配置できるので、ユーザは操作性良く、仮想光源の方向を変更する処理を行うことができる。 FIG. 13(e) shows that a region having a width greater than a predetermined value is set to surround the detected face. A region 1324 is set for the face 1320, and a region 1326 is set for the face 1322. In FIG. 13E, since both the area 1324 and the area 1326 are within the display range of the display unit 111, the image 1318 is displayed without being reduced. Since the virtual light source 1328 can be placed on the right side of the face 1322 or in other directions without reducing the image, the user can perform processing to change the direction of the virtual light source with good operability.

以上、変形例では、顔の位置から算出する情報に応じて、画像を縮小して表示するか、画像を縮小しないで表示するかを制御する。これにより、顔が画面の端に位置し、画面の外に仮想光源を移動したい場合でも、容易に仮想光源の移動がしやすくなる。 As described above, in the modified example, depending on the information calculated from the position of the face, it is controlled whether to display the image in a reduced size or to display the image without reducing it. This makes it easy to move the virtual light source even if the face is located at the edge of the screen and you want to move the virtual light source outside the screen.

なお、顔が画像の端の領域に位置する(中央領域に位置していない)ことを条件(S1206の所定領域を考慮せず)に、画像を縮小して表示してもよいし、S1206において選択中の顔にだけ判定をしてもよい。また、仮想光源への操作について、ユーザのタッチ操作に従って、絶対位置で移動する場合でも、同様の効果が得られる。ユーザのタッチ位置に仮想光源を移動する絶対位置での移動の場合でも、顔の周りに領域ができるように画像を縮小表示することでユーザの操作性が向上する。 Note that the image may be reduced and displayed on the condition that the face is located in the edge area of the image (not in the center area) (without considering the predetermined area in S1206), or the image may be displayed in a reduced size in S1206. It is also possible to perform the judgment only on the selected face. Furthermore, the same effect can be obtained even when the virtual light source is moved at an absolute position according to the user's touch operation. Even in the case of absolute position movement in which the virtual light source is moved to the user's touch position, the user's operability is improved by reducing and displaying the image so that an area is created around the face.

また、仮想光源の対象は人の顔でなくても、動物や乗り物、建物といった被写体でもいい。 Furthermore, the target of the virtual light source does not have to be a human face, but can also be a subject such as an animal, vehicle, or building.

さらに、仮想光源の照射方向ではなく、選択済の位置と所定の処理を行うための位置との2点を選択するような場合にも適用可能である。例えば、選択済の位置にある被写体に対して、選択済の位置とは異なる位置を選択すると、異なる位置から被写体に対して被写体が流れるような画像効果をかけたり、被写体を伸ばすような効果をかける場合にも適用可能である。仮想光源の照射方向でも、画像効果をかけるために選択中の被写体とは異なる位置を選択する場合でもアイテム615は、選択されている被写体と仮想的な位置との位置関係を示している。 Furthermore, it is also applicable to a case where two points, an already selected position and a position for performing predetermined processing, are selected instead of the irradiation direction of the virtual light source. For example, if you select a position different from the selected position for a subject that is already in the selected position, you can apply an image effect that makes the subject flow or stretch the subject from a different position. It is also applicable when applying. In the irradiation direction of the virtual light source, even when selecting a position different from the currently selected subject in order to apply an image effect, item 615 indicates the positional relationship between the selected subject and the virtual position.

本実施形態では、仮想光源の照射方向を示すアイテムが円内を移動することを説明したが、これは一例であり、ひし形や楕円でもよい。 In this embodiment, it has been explained that the item indicating the irradiation direction of the virtual light source moves within a circle, but this is just an example, and it may be a diamond or an ellipse.

本実施形態では、仮想光源を照射することを例に挙げて説明をしたが、これに限らず画像内の色や、画像内の被写体の配置や大きさを変えるような編集を行うような場合にも適用可能である。その他にも静止画に限らず、動画においても適用可能である。本実施形態では、深度情報をもっている画像に限って説明をしたが、これに限らない。 In this embodiment, the explanation has been given using the example of irradiating with a virtual light source, but this is not limited to this, and it can also be used when editing such as changing the color in the image or the placement or size of the subject in the image. It is also applicable to In addition, it is applicable not only to still images but also to moving images. In this embodiment, the explanation has been limited to images having depth information, but the present invention is not limited to this.

なお、システム制御部50が行うものとして説明した上述の各種の制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。 Note that the various controls described above as being performed by the system control unit 50 may be performed by a single piece of hardware, or multiple pieces of hardware may share the processing to control the entire device. .

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Further, although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to these specific embodiments, and the present invention may be applied to various forms without departing from the gist of the present invention. included. Furthermore, each of the embodiments described above is merely one embodiment of the present invention, and it is also possible to combine the embodiments as appropriate.

また、上述した実施形態においては、本発明をデジタルカメラ100に適用した場合を例にして説明したが、これはこの例に限定されず、画像処理に関する制御を行うことができるような表示制御装置であれば適用可能である。すなわち、本発明は携帯電話端末や携帯型の画像ビューワ、PC、ファインダーを備えるプリンタ装置、表示部を有する家電、デジタルフォトフレーム、プロジェクター、タブレットPC、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。 Further, in the above-described embodiment, the case where the present invention is applied to the digital camera 100 has been described as an example, but this is not limited to this example, and the present invention is not limited to this example, and the present invention can be applied to a display control device that can perform control related to image processing. If so, it is applicable. That is, the present invention is applicable to mobile phone terminals, portable image viewers, PCs, printer devices with finders, home appliances with display parts, digital photo frames, projectors, tablet PCs, music players, game consoles, electronic book readers, etc. It is possible.

(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記録媒体は本発明を構成することになる。
(Other embodiments)
The present invention is also realized by performing the following processing. That is, the software (program) that realizes the functions of the embodiments described above is supplied to a system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program code. This is the process to be executed. In this case, the program and the recording medium storing the program constitute the present invention.

Claims (14)

第1のアイテムの示す所定の領域内で第2のアイテムを移動する指示が可能な移動指示手段と、
第1の軸に沿った移動指示が可能な第1の操作部材への操作が行われたことと、前記第1の軸に沿った移動指示が可能な第2の操作部材への操作が行われたこととを検知可能な検知手段と、
前記所定の領域の端の位置ではない第1の位置に前記第2のアイテムがある際に、前記第1の操作部材への第1の操作に応じては前記第2のアイテムを前記第1の軸に沿った第2の位置へと移動し、前記第2の操作部材への第2の操作に応じては前記第2のアイテムを前記第2の位置へと移動し、
前記所定の領域の端の第3の位置に前記第2のアイテムがある際に、前記第1の操作部材への前記第1の操作に応じては前記第2のアイテムが前記第1の軸とは異なる軸に沿って第4の位置へと移動し、前記第2の操作部材への前記第2の操作に応じては前記第2のアイテムが前記第4の位置へと移動しないように制御する制御手段とを有することを特徴とする表示制御装置。
movement instruction means capable of instructing to move the second item within a predetermined area indicated by the first item;
A first operation member capable of instructing movement along the first axis has been operated, and a second operation member capable of instructing movement along the first axis has been operated. a detection means capable of detecting that the
When the second item is located at a first position that is not an end position of the predetermined area, the second item is moved to the first position in response to a first operation on the first operation member. and moving the second item to the second position in response to a second operation on the second operating member;
When the second item is located at a third position at the end of the predetermined area, the second item moves along the first axis in response to the first operation on the first operating member. the second item is moved to a fourth position along an axis different from the second item, and such that the second item does not move to the fourth position in response to the second operation on the second operating member. A display control device comprising a control means for controlling the display.
前記第1の操作部材への前記第1の操作の操作方向は、前記第1の軸と対応しており、
前記第2の操作部材への前記第2の操作の操作方向は、前記第1の軸とは異なることを特徴とする請求項1に記載の表示制御装置。
The operation direction of the first operation on the first operation member corresponds to the first axis,
The display control device according to claim 1, wherein an operation direction of the second operation on the second operation member is different from the first axis.
前記第1の操作部材への前記第1の操作によって、前記第の軸に沿った移動指示が可能であり、前記第1の操作部材への前記第1の操作とは異なる操作では前記第の軸とは異なる第の軸に沿った移動指示も可能であることを特徴とする請求項1または2に記載の表示制御装置。 The first operation on the first operation member allows a movement instruction along the first axis, and an operation different from the first operation on the first operation member 3. The display control device according to claim 1 , wherein a movement instruction can also be given along a second axis different from the first axis. 前記第2の操作部材への操作では、前記第の軸に沿った移動指示が可能であるが、前記第の軸とは異なる軸に沿った移動指示はできないことを特徴とする請求項1乃至3のいずれか1項に記載の表示制御装置。 A claim characterized in that when operating the second operating member, a movement instruction can be given along the first axis, but a movement instruction cannot be given along an axis different from the first axis. 4. The display control device according to any one of 1 to 3. 前記所定の領域は、前記第の軸と、前記第の軸と直行する軸に沿った線で囲われた領域ではないことを特徴とする請求項1乃至4のいずれか1項に記載の表示制御装置。 5. The predetermined area is not an area surrounded by the first axis and a line along an axis perpendicular to the first axis. display control device. 前記所定の領域は曲線で囲われた領域であることを特徴とする請求項1乃至5のいずれか1項に記載の表示制御装置。 6. The display control device according to claim 1, wherein the predetermined area is an area surrounded by a curved line. 前記第1の操作部材は、4方向への指示が可能な十字キーまたはコントローラであることを特徴とする請求項1乃至6のいずれか1項に記載の表示制御装置。 7. The display control device according to claim 1, wherein the first operating member is a cross key or a controller capable of giving instructions in four directions. 前記第2の操作部材は、回転部材であることを特徴とする請求項1乃至7のいずれか1項に記載の表示制御装置。 The display control device according to any one of claims 1 to 7, wherein the second operating member is a rotating member. 前記検知手段は、前記第1の操作部材と、前記第2の操作部材と、前記第2の軸に沿った移動指示が可能な第3の操作部材とへの操作を受け付け可能であることを特徴とする請求項に記載の表示制御装置。 The detection means is capable of accepting operations on the first operation member, the second operation member, and the third operation member capable of instructing movement along the second axis. The display control device according to claim 3 . 前記制御手段は、前記第2のアイテムが前記第1の位置にある際に、前記第1の操作部材への前記第1の操作に応じて、前記第2のアイテムを右方向に移動し、前記第2のアイテムが前記第3の位置にある際に、前記第1の操作部材への前記第の操作に応じて、前記第2のアイテムを右方向かつ下方向に移動するように制御することを特徴とする請求項1乃至9のいずれか1項に記載の表示制御装置。 The control means moves the second item to the right in response to the first operation on the first operation member when the second item is in the first position, When the second item is in the third position, the second item is controlled to move rightward and downward in response to the first operation on the first operating member. The display control device according to any one of claims 1 to 9. 前記制御手段は、前記第2のアイテムを前記第1のアイテムの端の線に沿って移動可能であることを特徴とする請求項1乃至10のいずれか1項に記載の表示制御装置。 11. The display control device according to claim 1, wherein the control means is capable of moving the second item along an edge line of the first item. 第1のアイテムの示す所定の領域内で第2のアイテムを移動する指示が可能な移動指示ステップと、
第1の軸に沿った移動指示が可能な第1の操作部材への操作が行われたことと、前記第1の軸に沿った移動指示が可能な第2の操作部材への操作が行われたこととを検知可能な検知ステップと、
前記所定の領域の端の位置ではない第1の位置に前記第2のアイテムがある際に、前記第1の操作部材への第1の操作に応じては前記第2のアイテムを前記第1の軸に沿った第2の位置へと移動し、前記第2の操作部材への第2の操作に応じては前記第2のアイテムを前記第2の位置へと移動し、
前記所定の領域の端の第3の位置に前記第2のアイテムがある際に、前記第1の操作部材への前記第1の操作に応じては前記第2のアイテムが前記第1の軸とは異なる軸に沿って第4の位置へと移動し、前記第2の操作部材への前記第2の操作に応じては前記第2のアイテムが前記第4の位置へと移動しないように制御する制御ステップとを有することを特徴とする表示制御装置の制御方法。
a movement instruction step capable of instructing to move the second item within a predetermined area indicated by the first item;
A first operation member capable of instructing movement along the first axis has been operated, and a second operation member capable of instructing movement along the first axis has been operated. a detection step capable of detecting that the
When the second item is located at a first position that is not an end position of the predetermined area, the second item is moved to the first position in response to a first operation on the first operation member. and moving the second item to the second position in response to a second operation on the second operating member;
When the second item is located at a third position at the end of the predetermined area, the second item moves along the first axis in response to the first operation on the first operating member. the second item is moved to a fourth position along a different axis than the second item, and such that the second item does not move to the fourth position in response to the second operation on the second operating member. 1. A method for controlling a display control device, comprising: a control step for controlling a display control device.
コンピュータを、請求項1乃至12のいずれか1項に記載された表示制御装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the display control device according to claim 1. コンピュータを、請求項1乃至12のいずれか1項に記載された表示制御装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to function as each means of the display control device according to any one of claims 1 to 12.
JP2019217578A 2019-11-29 2019-11-29 Display control device and its control method Active JP7422457B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019217578A JP7422457B2 (en) 2019-11-29 2019-11-29 Display control device and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019217578A JP7422457B2 (en) 2019-11-29 2019-11-29 Display control device and its control method

Publications (2)

Publication Number Publication Date
JP2021086585A JP2021086585A (en) 2021-06-03
JP7422457B2 true JP7422457B2 (en) 2024-01-26

Family

ID=76087969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019217578A Active JP7422457B2 (en) 2019-11-29 2019-11-29 Display control device and its control method

Country Status (1)

Country Link
JP (1) JP7422457B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6999305B2 (en) * 2017-07-07 2022-01-18 Tvs Regza株式会社 Receiver
JP6999303B2 (en) * 2017-07-07 2022-01-18 Tvs Regza株式会社 Receiver
JP7145278B2 (en) * 2020-10-13 2022-09-30 Tvs Regza株式会社 receiver

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008071165A (en) 2006-09-14 2008-03-27 Canon Inc Item indicating device and item indicating method
JP2018010496A (en) 2016-07-14 2018-01-18 キヤノン株式会社 Image processing apparatus, control method thereof, and program
JP2019070990A (en) 2017-10-11 2019-05-09 トヨタ自動車株式会社 Display control device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008071165A (en) 2006-09-14 2008-03-27 Canon Inc Item indicating device and item indicating method
JP2018010496A (en) 2016-07-14 2018-01-18 キヤノン株式会社 Image processing apparatus, control method thereof, and program
JP2019070990A (en) 2017-10-11 2019-05-09 トヨタ自動車株式会社 Display control device

Also Published As

Publication number Publication date
JP2021086585A (en) 2021-06-03

Similar Documents

Publication Publication Date Title
JP6757140B2 (en) Display control device and its control method, program, and storage medium
JP6541690B2 (en) Display control device and control method thereof
JP7422457B2 (en) Display control device and its control method
JP7005334B2 (en) Electronic devices, their control methods and programs
JP6647103B2 (en) Display control device and control method thereof
JP6701033B2 (en) Electronic device and control method thereof
JP2018206077A (en) Display control device, control method, and program
JP6978826B2 (en) Display control device and its control method, program, and storage medium
US20210165562A1 (en) Display control apparatus and control method thereof
JP7374739B2 (en) Display control device and its control method
JP6128967B2 (en) Display control apparatus and control method thereof
JP7458756B2 (en) Display control device and its control method
JP6808408B2 (en) Display control device and its control method
JP2019164423A (en) Electronic apparatus, control method of electronic apparatus, program and recording medium
JP7098490B2 (en) Imaging device and its control method
JP7066552B2 (en) Imaging control device, control method of imaging control device, program, storage medium
JP7007805B2 (en) Display control device and its control method
JP6643948B2 (en) Display control device and control method thereof
JP2020053951A (en) Image processing device and control method thereof
JP6529300B2 (en) Display control device and control method thereof
JP6525734B2 (en) Display control device and control method thereof
JP2015075894A (en) Display control device, and control method of display control device
JP6632396B2 (en) Electronic device and control method thereof
JP6120541B2 (en) Display control apparatus and control method thereof
JP2023003730A (en) Display control device and control method therefor, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240110

R151 Written notification of patent or utility model registration

Ref document number: 7422457

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151