JP2016167171A - Electronic apparatus - Google Patents

Electronic apparatus Download PDF

Info

Publication number
JP2016167171A
JP2016167171A JP2015046556A JP2015046556A JP2016167171A JP 2016167171 A JP2016167171 A JP 2016167171A JP 2015046556 A JP2015046556 A JP 2015046556A JP 2015046556 A JP2015046556 A JP 2015046556A JP 2016167171 A JP2016167171 A JP 2016167171A
Authority
JP
Japan
Prior art keywords
input point
physical input
relative position
display
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015046556A
Other languages
Japanese (ja)
Inventor
成明 素都
Shigeaki Soto
成明 素都
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015046556A priority Critical patent/JP2016167171A/en
Publication of JP2016167171A publication Critical patent/JP2016167171A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus that can optionally set an offset vector with good operability depending on a finger to perform a touch operation or the position of a touch, and can improve operability.SOLUTION: When any one of two physical input points A and B simultaneously touching a touch panel 6 on the surface of a display 5 is separated from the touch panel, an electronic apparatus stores a relative position of the separated physical input point to the physical input point maintaining the touch as an offset vector, and calculates a logical input point from the stored offset vector according to the position of the physical input point maintaining the touch.SELECTED DRAWING: Figure 2(a)

Description

本発明は、位置指定手段としてタッチパネルを備えたデジタルカメラ等の電子機器に関する。   The present invention relates to an electronic apparatus such as a digital camera provided with a touch panel as position specifying means.

従来、画面表示上の位置指定手段としてタッチパネルを備えた電子機器がある。前記タッチパネルは、タッチされた物理入力点からオフセットした位置を指定位置(以下、論理入力点と定義する)と見なして制御部に伝える。物理入力点からのオフセット量は、画面表示の中央ではあらかじめ定められた距離と角度からなるオフセットベクトルが定義され、画面表示の4辺近傍では物理入力点から近傍の各辺に対し垂直方向に角度を固定されている。画面表示の4角近傍では、物理入力点から近傍の各角に対し45度の角度に固定される。これにより、画面表示内の小さいアイコン等の指定対象でも、操作者はタッチ操作する指で隠すことなく位置を指定することができる(特許文献1参照)。   Conventionally, there is an electronic device provided with a touch panel as a position designation means on a screen display. The touch panel regards a position offset from the touched physical input point as a designated position (hereinafter, defined as a logical input point) and transmits the position to the control unit. For the offset from the physical input point, an offset vector consisting of a predetermined distance and angle is defined at the center of the screen display. In the vicinity of the four sides of the screen display, the angle is perpendicular to each side near the physical input point. Has been fixed. In the vicinity of the four corners of the screen display, the angle is fixed to 45 degrees with respect to each corner near the physical input point. As a result, the operator can specify the position of a designation target such as a small icon in the screen display without hiding it with a finger that is touch-operated (see Patent Document 1).

特開平11−24841号公報JP-A-11-24841

上記先行例では、物理入力点からのオフセットベクトルが予め定められている。例えば、画面中央部では右手人差し指でのタッチ操作に合わせてオフセットベクトルを右手人差し指の指し示す方向(左上方向)に定義されている。   In the preceding example, an offset vector from the physical input point is determined in advance. For example, in the center of the screen, the offset vector is defined in the direction (upper left direction) indicated by the right index finger in accordance with the touch operation with the right index finger.

しかし、タッチする位置が画面表示の上辺に近づくと、ある位置を境にオフセットベクトルの角度が上方向に切り替わる。そのため、切り替わりの境界近傍をタッチ操作する際に突然オフセットベクトルの角度が切り替わり、操作者が意図した論理入力点と異なる位置を論理入力点として入力してしまう場合があり、操作性が著しく低下する。   However, when the touched position approaches the upper side of the screen display, the angle of the offset vector is switched upward at a certain position. For this reason, when the touch operation is performed near the switching boundary, the angle of the offset vector is suddenly switched, and a position different from the logical input point intended by the operator may be input as the logical input point. .

本発明に係る電子機器は、
画像を表示する画像表示手段5と、
前記画像表示手段5の表面に配置され、接触された画像表示手段内の物理入力点の座標を検出する接触検出手段6と、
画像表示手段内の同時に接触されている2点の物理入力点の各座標から相対位置情報を算出する相対位置演算手段と、
同時に接触されている2点の物理入力点のいずれか1点が画像表示手段から離れた時に、接触を維持している物理入力点に対する離れた物理入力点の相対位置情報を格納する相対位置情報格納手段で構成され、
1点のみ接触している物理入力点に対して前記相対位置情報格納手段に格納されている相対位置情報から論理入力点を算出し、前記物理入力点が移動した場合は前記相対位置を維持しながら論理入力点も移動することを特徴とする。
The electronic device according to the present invention is
Image display means 5 for displaying an image;
Contact detection means 6 disposed on the surface of the image display means 5 for detecting the coordinates of physical input points in the image display means in contact;
Relative position calculation means for calculating relative position information from the coordinates of two physical input points which are in contact with each other in the image display means;
Relative position information for storing the relative position information of the distant physical input point with respect to the physical input point maintaining contact when any one of the two physical input points that are in contact at the same time leaves the image display means Consists of storage means,
A logical input point is calculated from the relative position information stored in the relative position information storage unit for a physical input point that is in contact with only one point, and the relative position is maintained when the physical input point moves. However, the logic input point is also moved.

本発明によれば、操作者が物理入力点から論理入力点までのオフセットベクトルを簡単な操作で設定できるため、タッチ操作する指やタッチする位置に合わせて操作性の良いオフセットベクトルを任意に設定でき、操作性を向上することができる。また、画面外周部でオフセットベクトルの角度が突然切り替わることも無いため、意図しない位置を論理入力点として入力することが無い。   According to the present invention, since the operator can set the offset vector from the physical input point to the logical input point with a simple operation, an offset vector with good operability can be arbitrarily set according to the finger to be touched or the touched position And operability can be improved. In addition, since the angle of the offset vector does not suddenly change at the outer periphery of the screen, an unintended position is not input as a logical input point.

本発明の第1の実施例に関わるデジタルカメラの背面斜視図1 is a rear perspective view of a digital camera according to a first embodiment of the present invention. ディスプレイ5上の2点を同時にタッチしている状態のディスプレイ5の表示内容Display contents of the display 5 in a state where two points on the display 5 are touched simultaneously. タッチしている左の1点を離した状態のディスプレイ5の表示内容Display contents of display 5 with one left touch point released 合焦位置を細かく指定しているときのディスプレイ5の表示内容Display contents on the display 5 when the in-focus position is specified in detail ディスプレイ5上の2点を同時にタッチしている状態のディスプレイ5の表示内容Display contents of the display 5 in a state where two points on the display 5 are touched simultaneously. タッチしている右の1点を離した状態のディスプレイ5の表示内容Display contents of the display 5 with the right touching point released CPU101内で行われる処理の手順を示すフローチャートThe flowchart which shows the procedure of the processing performed in CPU101 ディスプレイ5上の2点を同時にタッチしている状態のディスプレイ5の表示内容Display contents of the display 5 in a state where two points on the display 5 are touched simultaneously. タッチしている指をドラッグし画像表示を拡大しているディスプレイ5の表示内容Display contents of display 5 that expands the image display by dragging the touching finger デジタルカメラの構成ブロック図Block diagram of digital camera

以下、本発明の第1の実施形態について図面を参照しながら説明する。   Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.

図1は本発明を適用可能な電子機器の一例としてのデジタルカメラの背面斜視図である。   FIG. 1 is a rear perspective view of a digital camera as an example of an electronic apparatus to which the present invention can be applied.

図1に示すように、カメラ1の上面には、ユーザーがカメラ1を操作するための操作部106に含まれる電源スイッチ2やモード切り替えスイッチ3、シャッタースイッチ4が配置される。モード切り替えスイッチ3は、左にスライドすると撮影モード(REC)、右にスライドすると再生モード(PLAY)にカメラ1を設定する。   As shown in FIG. 1, a power switch 2, a mode switch 3, and a shutter switch 4 included in an operation unit 106 for a user to operate the camera 1 are disposed on the upper surface of the camera 1. The mode switch 3 sets the camera 1 to the shooting mode (REC) when it is slid to the left and to the playback mode (PLAY) when it is slid to the right.

カメラ背面には、表示画面であるディスプレイ5が設けられており、そのディスプレイ5の表面には、操作部106に含まれるタッチパネル6が備えられている。タッチパネル6を指でタッチ操作することにより操作指示がCPU101に伝達される。カメラ正面には、不図示の撮影レンズを備えており、撮影レンズを通過した被写体像を含む画角全体がディスプレイ5に表示される。   A display 5 that is a display screen is provided on the back of the camera, and a touch panel 6 included in the operation unit 106 is provided on the surface of the display 5. An operation instruction is transmitted to the CPU 101 by touching the touch panel 6 with a finger. An imaging lens (not shown) is provided in front of the camera, and the entire angle of view including the subject image that has passed through the imaging lens is displayed on the display 5.

ディスプレイ5には撮影レンズを向けられた方向の女性7が映し出されており、画面内右上には、合焦位置をタッチパネル6のタッチ操作で指定する機能を切り替えられるAFタッチボタン8が配置される。オンの場合は撮影者がタッチ操作で任意の位置に合焦位置を設定することができ、オフの場合は自動的に画角の中心に合焦位置が固定される。AFタッチボタン8の下には、撮影時にディスプレイ5上の表示を拡大できる機能を切り替えられるAFズームボタン9が配置される。オンの場合は撮影者がディスプレイ5上の被写体を拡大表示させて合焦位置を細かく指示することができ、オフの場合は拡大表示ができず画角全体が表示される。   The display 5 shows a woman 7 in the direction in which the photographing lens is directed, and an AF touch button 8 for switching a function for designating a focus position by a touch operation of the touch panel 6 is arranged on the upper right side of the screen. . When the camera is on, the photographer can set the focus position at an arbitrary position by a touch operation. When the camera is off, the camera focus is automatically fixed at the center of the field angle. Below the AF touch button 8, an AF zoom button 9 for switching a function capable of enlarging the display on the display 5 at the time of shooting is arranged. When the camera is on, the photographer can display the subject on the display 5 in an enlarged manner to indicate the in-focus position in detail, and when it is off, the camera cannot display the enlarged image and displays the entire angle of view.

図6に、本発明を適用可能な電子機器の一例としてのデジタルカメラ(デジタルカメラ100)の構成の一例を示す。なお、レンズや撮像センサなどの撮像部も有するが、図示は省略する。   FIG. 6 shows an example of the configuration of a digital camera (digital camera 100) as an example of an electronic apparatus to which the present invention can be applied. In addition, although it has imaging parts, such as a lens and an imaging sensor, illustration is abbreviate | omitted.

図6において、内部バス150に対してCPU101、メモリ102、不揮発性メモリ103、画像処理部104、ディスプレイ5、操作部106、記録媒体I/F107、外部I/F109、通信I/F110が接続されている。内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができるようにされている。   In FIG. 6, a CPU 101, a memory 102, a nonvolatile memory 103, an image processing unit 104, a display 5, an operation unit 106, a recording medium I / F 107, an external I / F 109, and a communication I / F 110 are connected to an internal bus 150. ing. Each unit connected to the internal bus 150 can exchange data with each other via the internal bus 150.

メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリなど)からなる。CPU101は、例えば不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、デジタルカメラの各部を制御する。不揮発性メモリ103には、画像データや音声データ、その他のデータ、CPU101が動作するための各種プログラムなどが格納される。不揮発性メモリ103は例えばハードディスク(HD)やROMなどで構成される。   The memory 102 is composed of, for example, a RAM (a volatile memory using a semiconductor element). The CPU 101 controls each unit of the digital camera using the memory 102 as a work memory, for example, according to a program stored in the nonvolatile memory 103. The nonvolatile memory 103 stores image data, audio data, other data, various programs for operating the CPU 101, and the like. The nonvolatile memory 103 is composed of, for example, a hard disk (HD) or ROM.

画像処理部104は、CPU101の制御に基づいて、不揮発性メモリ103や記録媒体108に格納された画像データや、外部I/F109を介して取得した映像信号、通信I/F110を介して取得した画像データなどに対して各種画像処理を施す。画像処理部104が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理などが含まれる。画像処理部104は特定の画像処理を施すための専用の回路ブロックで構成しても良い。また、画像処理の種別によっては画像処理部104を用いずにCPU101がプログラムに従って画像処理を施すことも可能である。   Based on the control of the CPU 101, the image processing unit 104 acquires image data stored in the nonvolatile memory 103 or the recording medium 108, a video signal acquired via the external I / F 109, or a communication I / F 110. Various image processing is performed on the image data. The image processing performed by the image processing unit 104 includes A / D conversion processing, D / A conversion processing, image data encoding processing, compression processing, decoding processing, enlargement / reduction processing (resizing), noise reduction processing, and color conversion. Processing etc. are included. The image processing unit 104 may be configured with a dedicated circuit block for performing specific image processing. Further, depending on the type of image processing, the CPU 101 can perform image processing according to a program without using the image processing unit 104.

ディスプレイ5は、CPU101の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面などを表示する。CPU101は、プログラムに従い表示制御信号を生成し、ディスプレイ5に表示するための映像信号を生成してディスプレイ5に出力するようにデジタルカメラの各部を制御する。ディスプレイ5は出力された映像信号に基づいて映像を表示する。なお、デジタルカメラ自体が備える構成としてはディスプレイ5に表示させるための映像信号を出力するためのインターフェースまでとし、ディスプレイ5は外付けのモニタ(テレビなど)で構成してもよい。   The display 5 displays an image or a GUI screen constituting a GUI (Graphical User Interface) based on the control of the CPU 101. The CPU 101 generates a display control signal according to a program, controls each part of the digital camera so as to generate a video signal to be displayed on the display 5 and output it to the display 5. The display 5 displays a video based on the output video signal. The configuration of the digital camera itself may be an interface for outputting a video signal to be displayed on the display 5, and the display 5 may be configured by an external monitor (such as a television).

操作部106は、キーボードなどの文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッドなどを含む、ユーザ操作を受け付けるための入力デバイスである。なお、タッチパネルは、ディスプレイ5に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。   The operation unit 106 is an input device for accepting user operations including a character information input device such as a keyboard, a pointing device such as a mouse and a touch panel, buttons, dials, joysticks, touch sensors, and a touch pad. Note that the touch panel is an input device that is configured to overlap with the display 5 and is configured to output coordinate information according to the touched position.

記憶媒体I/F107は、メモリーカードやCD、DVDといった記録媒体108が装着可能とされ、CPU101の制御に基づき、装着された記録媒体108からのデータの読み出しや、当該記録媒体108に対するデータの書き込みを行う。外部I/F109は、外部機器と有線ケーブルや無線によって接続し、映像信号や音声信号の入出力を行うためのインターフェースである。通信I/F110は、外部機器やインターネット111などと通信して、ファイルやコマンドなどの各種データの送受信を行うためのインターフェースである。   The storage medium I / F 107 can be loaded with a recording medium 108 such as a memory card, a CD, or a DVD. Under the control of the CPU 101, data can be read from the loaded recording medium 108 and data can be written to the recording medium 108. I do. The external I / F 109 is an interface that is connected to an external device by a wired cable or wirelessly and inputs / outputs a video signal and an audio signal. The communication I / F 110 is an interface for communicating with an external device, the Internet 111, and the like to transmit and receive various data such as files and commands.

なお操作部106にタッチパネルが含まれる場合、CPU101はタッチパネルへの以下の操作。あるいは状態を検出できる。
・タッチパネルにタッチしていなかった指やペンが新たにタッチパネルにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する。)
・タッチパネルを指やペンでタッチしている状態であること(以下、タッチオン(Touch-On)と称する)。
・タッチパネルを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
・タッチパネルへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する)。
・タッチパネルに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
When the operation unit 106 includes a touch panel, the CPU 101 performs the following operations on the touch panel. Alternatively, the state can be detected.
-A finger or pen that did not touch the touch panel newly touched the touch panel. That is, the start of touch (hereinafter referred to as touch-down).
-The touch panel is touched with a finger or pen (hereinafter referred to as touch-on).
-The touch panel is moved while being touched with a finger or a pen (hereinafter referred to as Touch-Move).
-The finger or pen that touched the touch panel is released. That is, the end of touch (hereinafter referred to as touch-up).
A state where nothing is touched on the touch panel (hereinafter referred to as touch-off).

タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。   When touchdown is detected, it is also detected that touch-on is performed at the same time. After touch-down, unless touch-up is detected, normally touch-on continues to be detected. The touch move is detected in a state where touch-on is detected. Even if the touch-on is detected, the touch move is not detected unless the touch position is moved. After it is detected that all fingers or pens that have been touched are touched up, the touch is turned off.

これらの操作・状態や、タッチパネル上に指やペンがタッチしている位置座標は内部バスを通じてCPU101に通知され、CPU101は通知された情報に基づいてタッチパネル上にどのような操作が行なわれたかを判定する。タッチムーブについてはタッチパネル上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル上の垂直成分・水平成分毎に判定できる。   The CPU 101 is notified of these operations / states and the position coordinates where the finger or pen is touching the touch panel via the internal bus, and the CPU 101 determines what operation has been performed on the touch panel based on the notified information. judge. Regarding the touch move, the moving direction of the finger or pen moving on the touch panel can be determined for each vertical component / horizontal component on the touch panel based on the change of the position coordinates.

またタッチパネル上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。   In addition, it is assumed that a stroke is drawn when touch-up is performed on the touch panel through a certain touch move from touch-down. The operation of drawing a stroke quickly is called a flick. A flick is an operation of quickly moving a certain distance while touching the finger on the touch panel and then releasing it, in other words, an operation of quickly tracing the finger on the touch panel. When it is detected that a touch move is performed at a predetermined speed or more over a predetermined distance and a touch-up is detected as it is, it can be determined that a flick has been performed. In addition, when it is detected that a touch move is performed at a predetermined distance or more and less than a predetermined speed, it is determined that a drag has been performed.

タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式ものがあるが、いずれの方式でもよい。   The touch panel may be any of various types of touch panels such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method. . Depending on the method, there are a method for detecting that there is a touch due to contact with the touch panel, and a method for detecting that there is a touch due to the approach of a finger or pen to the touch panel, but either method may be used.

図2(a)は撮影者がディスプレイ5上の2点を同時にタッチしている状態でのディスプレイ5の表示内容を示し、AFタッチボタン8はオン、AFズームボタン9はオフの状態である。図2(b)は図2(a)からタッチしている右の1点を離した状態、図2(c)は図2(b)から合焦位置を微調整しているディスプレイ5の表示内容を示す。   FIG. 2A shows the display content of the display 5 when the photographer is touching two points on the display 5 at the same time. The AF touch button 8 is on and the AF zoom button 9 is off. FIG. 2B shows a state in which the right point touched from FIG. 2A is released, and FIG. 2C shows the display 5 on which the in-focus position is finely adjusted from FIG. 2B. Show the contents.

図2(a)に示すように、撮影者は女性7の顔に合焦させるため、ディスプレイ5上の女性7の顔とそこから左にずれた箇所の2点を指10a・10bでタッチしている。タッチパネル6はタッチしている2点のディスプレイ5上の位置を物理入力点A、物理入力点BとしてCPU101に伝達する。   As shown in FIG. 2 (a), in order to focus on the face of the woman 7, the photographer touches the face of the woman 7 on the display 5 and two points shifted to the left with the fingers 10a and 10b. ing. The touch panel 6 transmits the touched positions on the display 5 to the CPU 101 as physical input points A and B.

次に、撮影者は図2(b)に示すように女性7の顔をタッチしている指10bをタッチパネル6から離す。CPU101は、タッチを維持している物理入力点Aに対する指10bを離した物理入力点Bの相対位置を物理入力点Aからの距離と角度から定義されるオフセットベクトルとして記憶し、物理入力点Bを指示位置とみなす論理入力点Bとして認識する。ディスプレイ5は論理入力点Bの位置に合焦位置を指し示す枠形状の合焦マーク11を表示し、物理入力点Aからのオフセットベクトルを示す矢印マーク12を表示する。現在のオフセットベクトルがディスプレイ5上に表示されるため、物理入力点と論理入力点の相対位置関係を撮影者が視覚的に確認できる。タッチを維持している物理入力点Aの指10aをタッチパネル6から離すと、論理入力点Bを合焦位置と認識してAF制御を開始する。   Next, the photographer releases the finger 10b touching the face of the woman 7 from the touch panel 6 as shown in FIG. The CPU 101 stores the relative position of the physical input point B where the finger 10b is released with respect to the physical input point A maintaining the touch as an offset vector defined by the distance and angle from the physical input point A, and the physical input point B Is recognized as a logical input point B which is regarded as a designated position. The display 5 displays a frame-shaped focus mark 11 indicating the focus position at the position of the logical input point B, and an arrow mark 12 indicating the offset vector from the physical input point A. Since the current offset vector is displayed on the display 5, the photographer can visually confirm the relative positional relationship between the physical input point and the logical input point. When the finger 10a of the physical input point A maintaining the touch is released from the touch panel 6, the logical input point B is recognized as an in-focus position and AF control is started.

図2(b)では、女性7の顔の中心に合焦しているが、顔の中でも特に左の瞳7aにピントを合わせたい場合、撮影者はディスプレイ5上で左の瞳7aと現在の合焦マーク11のズレ量を確認する。図2(c)に示すように、ディスプレイ5上で確認したズレ量だけ物理入力点Aからずらした位置をタッチすると、その位置を新たな物理入力点Cとして検出する。CPU101は記憶しているオフセットベクトルからその物理入力点Cに対する論理入力点Dを算出し、ディスプレイ5に撮影者の意図していた女性7の左の瞳7aの位置に合焦マーク11を表示する。また、オフセットベクトルを示す矢印マーク12も物理入力点Cを始点としてディスプレイ5に表示する。撮影者は合焦対象を指で隠してしまうことなく合焦位置を微調整することが可能で、ディスプレイ5上で指で隠れてしまう大きさの被写体でも正確に合焦させることができる。   In FIG. 2 (b), the center of the face of the woman 7 is focused. However, when the user wants to focus especially on the left pupil 7a in the face, the photographer displays the left pupil 7a on the display 5 with the current pupil. Check the amount of deviation of the focus mark 11. As shown in FIG. 2C, when a position shifted from the physical input point A by the amount of deviation confirmed on the display 5 is touched, the position is detected as a new physical input point C. The CPU 101 calculates the logical input point D for the physical input point C from the stored offset vector, and displays the focus mark 11 on the display 5 at the position of the left pupil 7a of the woman 7 intended by the photographer. . An arrow mark 12 indicating an offset vector is also displayed on the display 5 starting from the physical input point C. The photographer can finely adjust the in-focus position without hiding the in-focus object with a finger, and can accurately focus even a subject of a size that is hidden with the finger on the display 5.

図3(a)は図2(a)から女性7が画角内で左側に移動した状態で、撮影者がディスプレイ5上の2点を同時にタッチしている状態でのディスプレイ5の表示内容を示し、AFタッチボタン8はオン、AFズームボタン9はオフの状態である。図3(b)は図3(a)からタッチしている左の1点を離した状態のディスプレイ5の表示内容を示す。   FIG. 3A shows the display content of the display 5 when the photographer touches two points on the display 5 at the same time when the woman 7 moves to the left within the angle of view from FIG. The AF touch button 8 is on and the AF zoom button 9 is off. FIG. 3B shows the display content of the display 5 in a state in which the left point touched from FIG. 3A is released.

図3(a)に示すように、撮影者は女性7の顔に合焦させるため、物理入力点Eと物理入力点Fを同時にタッチしている状態から、図3(b)に示すように物理入力点Eのタッチしている指10eを離す。CPU101は、物理入力点Eと物理入力点Fの2点を同時にタッチしている状態から物理入力点Eが離れた時点で、物理入力点Fに対する物理入力点Eの相対位置をオフセットベクトルとして再記憶し、物理入力点Eを論理入力点Eとして認識する。ディスプレイ5は論理入力点Eの位置に合焦マーク11を表示し、物理入力点Fからのオフセットベクトルを示す矢印マーク12を表示する。タッチを維持している物理入力点Fの指10fをタッチパネル6から離すと、論理入力点Eを合焦位置としてAF制御を開始する。   As shown in FIG. 3A, since the photographer focuses on the face of the woman 7, the photographer touches the physical input point E and the physical input point F at the same time as shown in FIG. The finger 10e touching the physical input point E is released. When the physical input point E leaves the state where the physical input point E and the physical input point F are simultaneously touched, the CPU 101 re-uses the relative position of the physical input point E with respect to the physical input point F as an offset vector. The physical input point E is stored as a logical input point E. The display 5 displays an in-focus mark 11 at the position of the logical input point E, and an arrow mark 12 indicating an offset vector from the physical input point F. When the finger 10f of the physical input point F maintaining the touch is released from the touch panel 6, the AF control is started with the logical input point E as the in-focus position.

図2(b)では、ディスプレイ5内で被写体が右上に配置されているためオフセットベクトルも右上方向であったが、図3(a)に示すように被写体がディスプレイ5内で左下に移動した場合には、撮影者がオフセットベクトルを左下方向に再定義し合焦位置を指示している。このように、撮影者は簡単なタッチ操作でオフセットベクトルを再定義することが可能なため、ディスプレイ5内の被写体の位置やタッチする指の方向に応じて最適なオフセットベクトルを定義し、合焦位置を指で隠すことなくタッチ操作で指示することが可能となる。   In FIG. 2B, the offset vector is also in the upper right direction because the subject is arranged at the upper right in the display 5, but when the subject moves to the lower left in the display 5 as shown in FIG. The photographer redefines the offset vector in the lower left direction to indicate the in-focus position. In this way, the photographer can redefine the offset vector with a simple touch operation. Therefore, the optimum offset vector is defined according to the position of the subject in the display 5 and the direction of the finger to be touched and focused. It is possible to instruct the position by a touch operation without hiding the position with a finger.

図4は、CPU101内で行われる処理の手順を示すフローチャートである。この処理は不揮発性メモリ103に記録されたプログラムをメモリ102に読みだしてCPU101が実行することで実現する。   FIG. 4 is a flowchart showing a procedure of processing performed in the CPU 101. This processing is realized by reading the program recorded in the nonvolatile memory 103 into the memory 102 and executing it by the CPU 101.

ステップ101でタッチパネル6上の2点のタッチを検出すると、ステップ102でタッチしている2点の各位置を物理入力点としてCPU101が認識し、2点の相対位置情報を算出し記憶する。   When two touches on the touch panel 6 are detected in step 101, the CPU 101 recognizes the positions of the two touched points in step 102 as physical input points, and calculates and stores the relative position information of the two points.

ステップ103で2点の物理入力点の移動を検出すると、ステップ102に戻り移動後の2点の各位置を物理入力点としてCPU101が再認識し、2点の相対位置情報を再び算出して記憶する。ステップ103で2点の物理入力点の移動を検出しない場合は、ステップ104でタッチしている2点の物理入力点がいずれもタッチパネル6上でタッチを維持している間はステップ103に戻り、ステップ103からステップ104へのループを繰り返す。   When the movement of the two physical input points is detected in step 103, the CPU 101 returns to step 102 to re-recognize each position of the two moved points as the physical input point, and calculates and stores the relative position information of the two points again. To do. If the movement of the two physical input points is not detected in step 103, the process returns to step 103 while both of the two physical input points touched in step 104 maintain the touch on the touch panel 6, The loop from step 103 to step 104 is repeated.

ステップ104でタッチしている2点の物理入力点のうちいずれか1点が離れたことを検出した場合は、ステップ105に進む。   If it is detected in step 104 that one of the two physical input points touched is separated, the process proceeds to step 105.

ステップ105では、タッチパネル6から離れた1点をタッチを維持している物理入力点に対する論理入力点としてCPU101は認識し、ステップ102で記憶している相対位置情報からタッチを維持している物理入力点からの距離と角度から定義されるオフセットベクトルを記憶する。   In step 105, the CPU 101 recognizes one point away from the touch panel 6 as a logical input point for the physical input point that maintains the touch, and the physical input that maintains the touch from the relative position information stored in step 102. An offset vector defined from the distance from the point and the angle is stored.

ステップ106で、表示パネル上に論理入力点とオフセットベクトルを表示し撮影者に視覚的に伝える。   In step 106, the logical input point and the offset vector are displayed on the display panel and visually notified to the photographer.

ステップ107でタッチを維持している物理入力点の移動を検出した場合はステップ111に進み、ステップ105で記憶しているオフセットベクトルから移動後の物理入力点に対する論理入力点を再び算出し、ステップ106に戻る。ステップ107でタッチを維持している物理入力点の移動を検出しない場合はステップ108に進む。   If the movement of the physical input point that keeps touching is detected in step 107, the process proceeds to step 111, and the logical input point for the physical input point after the movement is calculated again from the offset vector stored in step 105. Return to 106. If the movement of the physical input point that keeps touching is not detected in step 107, the process proceeds to step 108.

ステップ108でタッチを維持している物理入力点がタッチパネル6から離れたことを検出しない場合はステップ107に戻り、ステップ107からステップ108を繰り返す。ステップ108で物理入力点が離れたことを検出した場合は、ステップ109で論理入力点に合焦する。   If it is not detected in step 108 that the physical input point maintaining the touch has moved away from the touch panel 6, the process returns to step 107 and steps 107 to 108 are repeated. If it is detected in step 108 that the physical input point is separated, the logical input point is focused in step 109.

ステップ110でタッチパネル6上でいずれのタッチも検出しない場合は終了となるが、タッチを検出した場合はステップ111に進み、ステップ105で記憶しているオフセットベクトルからタッチを検出した物理入力点に対する論理入力点を算出し、ステップ106に戻る。   If no touch is detected on the touch panel 6 in step 110, the process ends. If a touch is detected, the process proceeds to step 111, and the logic for the physical input point where the touch is detected from the offset vector stored in step 105. The input point is calculated, and the process returns to step 106.

ステップ101以外のステップにおいて、2点が同時にタッチしていることを検出した場合はステップ101に戻る。   If it is detected in steps other than step 101 that two points are touched simultaneously, the process returns to step 101.

図5(a)は撮影者がタッチパネル6上の2点を同時にタッチしている状態でのディスプレイ5の表示内容を示し、AFタッチボタン8はオン、AFズームボタン9はオンの状態である。図5(b)は図5(a)からタッチしている指をドラッグし、画像表示を拡大したディスプレイ5の表示内容を示す。   FIG. 5A shows the display content of the display 5 when the photographer is touching two points on the touch panel 6 at the same time. The AF touch button 8 is on and the AF zoom button 9 is on. FIG. 5B shows the display contents of the display 5 in which the finger touched from FIG. 5A is dragged to enlarge the image display.

AFズームボタン9がオンの状態では、オンになる以前のオフセットベクトルに固定される。図5(a)に示すように、撮影者がディスプレイ5上に2点タッチするときに先に検出された物理入力点Gに対し、固定のオフセットベクトルから論理入力点Iを算出する。物理入力点Gと物理入力点Hの検出が同時だった場合は、左側の物理入力点を先に検出、右側の物理入力点を後に検出と定義し、先に検出した物理入力点に対して固定のオフセットベクトルから論理入力点を算出する。図5(b)に示すように、タッチパネル6上の物理入力点Gの位置を動かさずに、後から検出された物理入力点Hを物理入力点Gから離れる方向13にドラッグ操作すると、論理入力点Iを中心として画像表示を拡大する。拡大表示された状態で物理入力点Hを物理入力点Gに近づく方向にドラッグ操作すると、論理入力点Iを中心として画像表示を縮小する。   When the AF zoom button 9 is on, the offset vector is fixed to the value before the on state. As shown in FIG. 5A, a logical input point I is calculated from a fixed offset vector with respect to a physical input point G previously detected when the photographer touches the display 5 with two points. If the physical input point G and the physical input point H are detected at the same time, the left physical input point is detected first and the right physical input point is detected later. A logical input point is calculated from a fixed offset vector. As shown in FIG. 5B, when the physical input point H detected later is dragged in the direction 13 away from the physical input point G without moving the position of the physical input point G on the touch panel 6, logical input is performed. The image display is enlarged around the point I. When the physical input point H is dragged in a direction approaching the physical input point G in the enlarged display state, the image display is reduced around the logical input point I.

合焦位置である論理入力点Iがディスプレイ5上で移動しないため、撮影者は合焦位置がディスプレイ5上からはみ出ることなく拡大表示することができ、拡大表示した被写体に対して合焦位置を細かく指示することができる。   Since the logical input point I, which is the focus position, does not move on the display 5, the photographer can enlarge the focus position without protruding from the display 5, and the focus position can be set for the magnified subject. You can give detailed instructions.

また、物理入力点が1点のみでその物理入力点の移動を検出した場合や、2点同時にタッチされている状態で先に検出された物理入力点の移動を検出した場合は、移動後の物理入力点に対して固定のオフセットベクトルから論理入力点を算出する。   In addition, when the movement of the physical input point is detected with only one physical input point, or when the movement of the physical input point detected earlier with two points touched simultaneously is detected, A logical input point is calculated from a fixed offset vector with respect to the physical input point.

なお、CPU101の制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。   The control of the CPU 101 may be performed by one piece of hardware, or the entire apparatus may be controlled by a plurality of pieces of hardware sharing the processing.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。   Although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms without departing from the gist of the present invention are also included in the present invention. included. Furthermore, each embodiment mentioned above shows only one embodiment of this invention, and it is also possible to combine each embodiment suitably.

また、上述した実施形態においては、本発明をデジタルカメラに適用した場合を例にして説明したが、これはこの例に限定されずタッチパネルを備えた電子機器であれば適用可能である。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。   In the above-described embodiment, the case where the present invention is applied to a digital camera has been described as an example. However, the present invention is not limited to this example and can be applied to any electronic device including a touch panel. That is, the present invention can be applied to a personal computer, a PDA, a mobile phone terminal, a portable image viewer, a printer device including a display, a digital photo frame, a music player, a game machine, an electronic book reader, and the like.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

5 ディスプレイ、6 タッチパネル、106 操作部 5 Display, 6 Touch panel, 106 Operation unit

Claims (4)

画像を表示する画像表示手段5と、
前記画像表示手段5の表面に配置され、接触された画像表示手段内の物理入力点の座標を検出する接触検出手段6と、
画像表示手段内の同時に接触されている2点の物理入力点の各座標から相対位置情報を算出する相対位置演算手段と、
同時に接触されている2点の物理入力点のいずれか1点が画像表示手段から離れた時に、接触を維持している物理入力点に対する離れた物理入力点の相対位置情報を格納する相対位置情報格納手段で構成され、
1点のみ接触している物理入力点に対して前記相対位置情報格納手段に格納されている相対位置情報から論理入力点を算出し、前記物理入力点が移動した場合は前記相対位置を維持しながら論理入力点も移動することを特徴とする電子機器。
Image display means 5 for displaying an image;
Contact detection means 6 disposed on the surface of the image display means 5 for detecting the coordinates of physical input points in the image display means in contact;
Relative position calculation means for calculating relative position information from the coordinates of two physical input points which are in contact with each other in the image display means;
Relative position information for storing the relative position information of the distant physical input point with respect to the physical input point maintaining contact when any one of the two physical input points that are in contact at the same time leaves the image display means Consists of storage means,
A logical input point is calculated from the relative position information stored in the relative position information storage unit for a physical input point that is in contact with only one point, and the relative position is maintained when the physical input point moves. An electronic device characterized in that the logical input point moves.
前記相対位置情報格納手段に相対位置情報が格納されている状況において、画像表示手段内の2点を同時に接触している状態からいずれか1点の物理入力点が離れた時に、前記相対位置演算手段により算出された相対位置情報で前記相対位置情報格納手段に格納されている相対位置情報を上書きすることを特徴とする請求項1に記載の電子機器。 In the situation where relative position information is stored in the relative position information storage means, the relative position calculation is performed when one of the physical input points is separated from the state where two points in the image display means are in contact with each other at the same time. 2. The electronic apparatus according to claim 1, wherein the relative position information stored in the relative position information storage means is overwritten with the relative position information calculated by the means. 1点のみ接触している物理入力点が画像表示手段5から離れた時の物理入力点に対する論理入力点に合焦動作を行う事を特徴とする請求項1に記載の電子機器。 2. The electronic apparatus according to claim 1, wherein a focusing operation is performed on a logical input point corresponding to a physical input point when only one physical contact point is in contact with the image display means. 画像表示手段5を2点接触する場合に、先に接触している物理入力点に対する論理入力点を前記相対位置情報格納手段に格納されている相対位置情報から算出し、後に接触した物理入力点をドラッグ操作した時に、前記論理入力点を中心に画像表示を拡大・縮小することを特徴とする請求項1に記載の電子機器。 When the image display means 5 is touched at two points, the logical input point for the physical input point that is touched first is calculated from the relative position information stored in the relative position information storage means, and the physical input point that is touched later The electronic apparatus according to claim 1, wherein when a drag operation is performed, an image display is enlarged / reduced around the logical input point.
JP2015046556A 2015-03-10 2015-03-10 Electronic apparatus Pending JP2016167171A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015046556A JP2016167171A (en) 2015-03-10 2015-03-10 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015046556A JP2016167171A (en) 2015-03-10 2015-03-10 Electronic apparatus

Publications (1)

Publication Number Publication Date
JP2016167171A true JP2016167171A (en) 2016-09-15

Family

ID=56897594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015046556A Pending JP2016167171A (en) 2015-03-10 2015-03-10 Electronic apparatus

Country Status (1)

Country Link
JP (1) JP2016167171A (en)

Similar Documents

Publication Publication Date Title
US10222903B2 (en) Display control apparatus and control method thereof
JP5906097B2 (en) Electronic device, its control method, program, and recording medium
US9438789B2 (en) Display control apparatus and display control method
JP6004693B2 (en) Display control apparatus and control method thereof
JP2012133490A (en) Display control apparatus, control method thereof, program and recording medium
JP5893456B2 (en) Display control apparatus, control method therefor, program, and storage medium
JP6647103B2 (en) Display control device and control method thereof
JP5441748B2 (en) Display control apparatus, control method therefor, program, and storage medium
JP5220157B2 (en) Information processing apparatus, control method therefor, program, and storage medium
KR20170074782A (en) Electronic device, method for controlling the same, and storage medium
JP6442266B2 (en) IMAGING CONTROL DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP5911321B2 (en) Display control device and control method of display control device
US11099728B2 (en) Electronic apparatus, control method, and non-transitory computer readable medium for displaying a display target
JP2016133978A (en) Information processor, information processing method and program
JP7366682B2 (en) Electronic equipment and its control method
JP6779778B2 (en) Display control device and its control method
JP2016167171A (en) Electronic apparatus
US10212382B2 (en) Image processing device, method for controlling image processing device, and computer-readable storage medium storing program
JP6362110B2 (en) Display control device, control method therefor, program, and recording medium
JP6525753B2 (en) Display control device, control method thereof, and program
US20230276015A1 (en) Electronic apparatus, method of controlling the same, and computer-readable storage medium storing program
US9438807B2 (en) Image pickup apparatus having touch panel, image processing method, and storage medium
JP7419051B2 (en) Electronic devices, their control methods, programs and storage media
JP7030527B2 (en) Electronic devices, information processing methods, programs and storage media
JP2017010470A (en) Electronic equipment