KR20170083495A - 표시 제어장치 및 그 제어방법 - Google Patents

표시 제어장치 및 그 제어방법 Download PDF

Info

Publication number
KR20170083495A
KR20170083495A KR1020170001660A KR20170001660A KR20170083495A KR 20170083495 A KR20170083495 A KR 20170083495A KR 1020170001660 A KR1020170001660 A KR 1020170001660A KR 20170001660 A KR20170001660 A KR 20170001660A KR 20170083495 A KR20170083495 A KR 20170083495A
Authority
KR
South Korea
Prior art keywords
display
touch operation
touch
display unit
predetermined
Prior art date
Application number
KR1020170001660A
Other languages
English (en)
Other versions
KR102133436B1 (ko
Inventor
유이치로 이시츠카
Original Assignee
캐논 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캐논 가부시끼가이샤 filed Critical 캐논 가부시끼가이샤
Publication of KR20170083495A publication Critical patent/KR20170083495A/ko
Application granted granted Critical
Publication of KR102133436B1 publication Critical patent/KR102133436B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)

Abstract

표시 제어장치는, 멀티 터치 조작이 검출되고, 소정의 터치 무브 조작이 검출되지 않는 경우에, 멀티 터치 조작이 행해지는 위치들에 근거한 제1 위치를 기준으로 하여, 멀티 터치 조작에 따라 표시부에 표시된 표시 대상을 확대 또는 축소하도록 제어를 행하고, 소정의 터치 무브 조작이 검출되고, 멀티 터치 조작이 검출된 경우에, 멀티 터치 조작이 행해지는 위치들에 근거하지 않는 제2 위치를 기준으로 하여, 멀티 터치 조작에 따라 표시부에 표시된 표시 대상을 확대 또는 축소하도록 제어를 행한다.

Description

표시 제어장치 및 그 제어방법{DISPLAY CONTROL APPARATUS AND CONTROL METHOD THEREOF}
본 발명은, 표시 제어장치 및 그 제어방법에 관한 것으로, 특히 터치 조작을 행함으로써 표시 대상을 표시하는 표시 제어방법에 관한 것이다.
일본국 특개 2015-055888호 공보에는, 터치 조작을 행함으로써 표시 대상(오브젝트)을 확대 또는 축소하는 기술이 기재되어 있다. 일본국 특개 2015-055888호 공보에서는, 터치 입력을 허용하는 조작 화면에 특정 영역이 존재하는지 아닌지에 따라, 동일한 터치 조작이 행해지더라도, 터치 위치에 근거한 확대/축소와 터치 위치에 근거하지 않는 확대/축소 사이에서 처리를 전환한다.
그렇지만, 상기 일본국 특개 2015-055888호 공보에서는, 확대 표시 또는 축소 표시의 기준이 터치 조작이 행해지지 전의 화면의 표시 상태에 따라 결정되어, 유저가 터치 위치에 근거하여 표시 대상을 확대/축소할지, 또는 터치 위치에 무관하게 표시 대상을 확대/축소할지를 선택할 수 없다. 이 때문에, 유저가 의도하는 표시 제어가 행해지지 않는 경우가 있었다.
본 발명은, 전술한 문제를 감안하여 이루어진 것으로, 화상을 확대 또는 축소하는 터치 조작 전에 터치 조작이 행해졌는지 아닌지에 따라, 확대 또는 축소의 기준을 전환함으로써, 유저가 의도하는 표시 제어를 행할 수 있도록 하는 기술을 실현한다.
전술한 과제를 해결하기 위해, 본 발명은, 표시부에 대한 터치 조작을 검출하도록 구성된 터치 검출부와, 상기 터치 검출부가 상기 표시부에 대한 멀티 터치 조작을 검출하고, 상기 터치 검출부가 상기 멀티 터치 조작의 검출 이전의 시간으로부터 상기 표시부 상에 유지된 상기 표시부에 대한 터치 위치의 이동을 수반하는 소정의 터치 조작을 검출하지 않은 경우에, 상기 멀티 터치 조작이 행해지는 위치들에 근거한 제1 위치를 기준으로 하여, 상기 멀티 터치 조작에 따라 상기 표시부에 표시된 표시 대상을 확대 또는 축소하도록 제어를 행하고, 상기 터치 검출부가 상기 소정의 터치 조작을 검출하고, 상기 터치 검출부가, 상기 소정의 터치 조작이 행해진 후 상기 소정의 터치 조작의 적어도 1개의 터치가 유지된 채, 멀티 터치 조작을 검출한 경우에, 상기 멀티 터치 조작이 행해지는 위치들에 근거하지 않는 제2 위치를 기준으로 하여, 상기 멀티 터치 조작에 따라 상기 표시부에 표시된 상기 표시 대상을 확대 또는 축소하도록 제어를 행하도록 구성된 표시 제어부를 구비한 표시 제어장치를 제공한다.
전술한 과제를 해결하기 위해, 본 발명은, 표시부에 대한 터치 조작을 검출하는 단계와, 상기 표시부에 대한 멀티 터치 조작이 검출되고, 상기 멀티 터치 조작의 검출 이전의 시간으로부터 상기 표시부 상에 유지된 상기 표시부에 대한 터치 위치의 이동을 수반하는 소정의 터치 조작이 검출되지 않은 경우에, 상기 멀티 터치 조작이 행해지는 위치들에 근거한 제1 위치를 기준으로 하여, 상기 멀티 터치 조작에 따라 상기 표시부에 표시된 표시 대상을 확대 또는 축소하도록 제어를 행하고, 소정의 터치 조작이 검출되고, 상기 소정의 터치 조작이 행해진 후 상기 소정의 터치 조작의 적어도 1개의 터치가 유지된 채, 상기 표시부에 대한 상기 멀티 터치 조작이 검출된 경우에, 상기 멀티 터치 조작이 행해지는 위치들에 근거하지 않는 제2 위치를 기준으로 하여, 상기 멀티 터치 조작에 따라 상기 표시부에 표시된 상기 표시 대상을 확대 또는 축소하도록 제어를 행하는 단계를 포함하는 표시 제어장치의 제어방법을 제공한다.
전술한 과제를 해결하기 위해, 본 발명은, 표시부에 대한 터치 조작을 검출하도록 구성된 터치 검출부와, 상기 터치 조작에 의한 상기 표시부에 대한 터치 위치의 이동을 수반하는 소정의 터치 조작이 검출된 후의 기간이 소정의 기간 이내가 아니고, 상기 표시부에 대한 멀티 터치 조작을 검출한 경우에, 상기 멀티 터치 조작이 행해지는 위치들에 근거한 제1 위치를 기준으로 하여, 상기 멀티 터치 조작에 따라 상기 표시부에 표시된 표시 대상을 확대 또는 축소하도록 제어를 행하고, 상기 소정의 터치 조작이 검출된 후 상기 소정의 기간 이내에 상기 표시부에 대한 상기 멀티 터치 조작이 검출된 경우에, 상기 멀티 터치 조작이 행해지는 위치들에 근거하지 않는 제2 위치를 기준으로 하여, 상기 멀티 터치 조작에 따라 상기 표시부에 표시된 상기 표시 대상을 확대 또는 축소하도록 제어를 행하도록 구성된 표시 제어부를 구비한 표시 제어장치를 제공한다.
전술한 과제를 해결하기 위해, 본 발명은, 표시부에 대한 터치 조작을 검출하는 단계와, 터치 조작에 의한 상기 표시부에 대한 터치 위치의 이동을 수반하는 소정의 터치 조작이 검출된 후의 기간이 소정의 기간 이내가 아니고, 상기 표시부에 대한 멀티 터치 조작이 검출된 경우에, 상기 멀티 터치 조작이 행해지는 위치들에 근거한 제1 위치를 기준으로 하여, 상기 멀티 터치 조작에 따라 상기 표시부에 표시된 표시 대상을 확대 또는 축소하도록 제어를 행하고, 상기 소정의 터치 조작을 검출한 후 상기 소정 시간 이내에 상기 표시부에 대한 상기 멀티 터치 조작이 검출된 경우에, 상기 멀티 터치 조작이 행해지는 위치들에 근거하지 않는 제2 위치를 기준으로 하여, 상기 멀티 터치 조작에 따라 상기 표시부에 표시된 상기 표시 대상을 확대 또는 축소하도록 제어를 행하는 단계를 포함하는 표시 제어장치의 제어방법을 제공한다.
본 발명에 따르면, 화상을 확대 또는 축소하는 터치 조작 이전에 터치 조작이 행해졌는지 아닌지에 따라, 확대 또는 축소의 기준을 전환함으로써, 유저가 의도하는 표시 제어를 행할 수 있다.
본 발명의 또 다른 특징은 (첨부도면을 참조하여 주어지는) 이하의 실시형태의 상세한 설명으로부터 명백해질 것이다.
도 1a 및 도 1b는 본 실시형태에 따른 표시 제어장치의 외관도이다.
도 2는 본 실시형태에 따른 표시 제어장치의 내부 구성을 나타낸 블록도이다.
도 3a 내지 도 3e는 본 실시형태에 의한 표시 제어의 설명도이다.
도 4a 내지 도 4h는 본 실시형태에 의한 터치 무브후의 확대 표시 예를 도시한 도면이다.
도 5는 본 실시형태에 따른 표시 제어 처리를 나타낸 흐름도이다.
이하에서 본 발명을 실시하기 위한 실시형태에 대해 상세하게 설명한다. 본 실시형태에서는, 표시 제어장치가 촬상장치인 일안 리플렉스 디지털 카메라에 적용되는 예에 대해 설명한다.
장치 구성
도 1a 및 도 1b 및 도 2를 참조하여, 본 실시형태의 디지털 카메라의 구성 및 기능에 대해 설명한다.
우선, 도 1a 및 도 1b를 참조하여, 본 실시형태에 따른 디지털 카메라(이하, "카메라"로 부른다)(100)의 외관 구성에 대해 설명한다.
도 1a는 카메라(100)의 전방 사시도이고, 도 1b는 카메라(100)의 배면 사시도다.
도 1a 및 도 1b에 있어서, 표시부(101)는, 화상과 각종 정보를 표시하기 위해 카메라 본체의 배면에 배치된 LCD 등의 표시 디바이스다. 또한, 표시부(101)는, 정지화상 촬영후의 정지화상 재생 기능, 기록중인 동화상의 표시 기능 및 라이브 뷰 표시 기능도 갖고 있다. 셔터 해제 버튼(102)은 촬영 지시를 내리기 위한 누름 버튼식의 조작부재다. 모드 다이얼(103)은 카메라(100)의 동작 모드를 전환하기 위한 회전식의 조작부재다. 메인 다이얼(104)은, 셔터 속도와 조리개 등의 설정값을 변경할 수 있는 회전식의 조작부재다.
메뉴 버튼(105)은, 각종의 설정을 가능하게 하는 메뉴 화면을 표시부(101)에 표시하기 위한 조작부재다. 촬영 설정 버튼(106)은, 정지화상, 동화상 등을 촬영하는 촬영 모드에 있어서의 각종의 촬영 조건을 설정하기 위한 조작부재다. 십자 키(107)는, 상, 하, 좌 및 우의 어느 한개를 누름으로써, 십자 키(107)가 눌린 부분에 따른 조작을 행할 수 있는 이동 지시부재이다. SET 버튼(108)은 누름 버튼이며, 주로 선택 항목의 결정 등에 사용된다. 확대 버튼(109)은, 라이브 뷰 중에 있어서의 확대 표시의 온/오프의 변경, 및 확대 표시의 확대율의 변경을 행하기 위한 조작부재다. 또한, 확대 버튼(109)은, 재생 모드에서는 재생 화상을 확대하고, 확대율을 증가시키기 위한 조작부재다. 축소 버튼(110)은, 확대된 재생 화상의 확대율을 감소시키고, 화면을 축소 표시하기 위한 조작부재다. 이때, 확대 버튼(109) 및 축소 버튼(110)에 의한 확대 처리 및 축소 처리에서는, 항상 표시부(101)의 화면(화상)의 중앙을 기준으로 화상이 확대 또는 축소된다.
본 실시형태의 카메라(100)는, 디지털 카메라(100)에 대한 전원의 온/오프를 전환하는 전원 스위치와 라이브 뷰 표시의 온/오프를 전환하는 라이브 뷰 버튼을 구비한다. 또한, 카메라(100)는, 유저가 카메라(100)를 잡았을 때 유저의 오른손으로 쥐기 쉽게 하는 형상을 갖는 그립부를 갖는다.
도 2는, 본 실시형태에 따른 카메라(100)의 내부 구성을 나타내고 있다.
도 2에 있어서, 촬영 렌즈(204)는 줌 렌즈 및 포커스 렌즈를 포함하는 렌즈 군이다. 셔터(205)는 조리개 기능을 구비한다. 촬상부(206)는 피사체의 광학 상을 전기신호로 변환하는 CCD, CMOS 등으로 구성되는 촬상 소자다. A/D 변환기(207)는, 아날로그 신호를 디지털 신호로 변환한다. A/D 변환기(207)는, 촬상부(206)로부터 출력되는 아날로그 신호를 디지털 신호로 변환하기 위해 사용된다. 배리어(203)는, 카메라(100)의 촬영 렌즈(204)를 포함하는 촬영계를 덮는 것에 의해, 촬영 렌즈(204), 셔터(205) 및 촬상부(206)를 포함하는 촬영계의 오염과 파손을 방지한다. 이때, 촬영 렌즈(204)는 카메라(100)에 고정되거나 분리 가능한 것이라도 된다.
화상처리부(202)는, A/D 변환기(207)로부터의 데이터, 또는, 메모리 제어부(208)로부터의 데이터에 대해 소정의 화소보간 및 축소 등의 리사이즈 처리와, 색 변환처리를 행한다. 또한, 화상처리부(202)에서는, 촬상한 화상 데이터를 사용해서 소정의 연산 처리를 행하고, 시스템 제어부(201)가 연산 결과에 근거하여 노광 제어 및 측거 제어를 행한다. 이에 따라, TTL(Through the Lens) 방식의 AF(Automatic Focusing) 처리, AE(Automatic Exposure) 처리 및 EF(플래시 프리발광) 처리가 행해진다. 더구나, 화상처리부(202)는, 촬상한 화상 데이터를 사용해서 소정의 연산 처리를 행하고, 연산 결과에 근거하여 TTL 방식의 AWB(Automatic White Balance) 처리도 행하고 있다.
A/D 변환기(207)로부터의 출력 데이터는, 화상처리부(202) 및 메모리 제어부(208) 모드를 거치거나, 또는, 메모리 제어부(208)를 거쳐 메모리(209)에 직접 기록된다. 메모리(209)는, 촬상부(206)에 의해 얻어져, A/D 변환기(207)에 의해 디지털 데이터로 변환된 화상 데이터와, 표시부(101)에 표시할 화상 데이터를 격납한다. 메모리(209)는, 소정 매수의 정지화상과 소정 시간의 동화상 및 음성을 격납하는데 충분한 기억 용량을 구비한다.
또한, 메모리(209)는 화상 표시용의 메모리(비디오 메모리)를 겸하고 있다. D/A 변환기(210)는, 메모리(209)에 격납되어 있는 화상 표시용의 데이터를 아날로그 신호로 변환해서, 이 아날로그 신호를 표시부(101)에 공급한다. 메모리(209)에 기록된 표시용의 화상 데이터는 D/A 변환기(210)를 거쳐 표시부(101)에 의해 표시된다. 표시부(101)는, LCD 등의 표시기 위에, D/A 변환기(210)로부터의 아날로그 신호에 따른 표시를 행한다. A/D 변환기(207)에 의해 일단 A/D 변환되고, 메모리(209)에 격납된 디지털 신호는 D/A 변환기(210)에서 아날로그 신호로 변환되고, 이 아날로그 신호가 표시부(101)에 순차 전송되어 표시함으로써, 전자 뷰 파인더(EVF) 기능을 구현할 수 있으며, 라이브 뷰에 의한 스루 더 렌즈 화상의 표시를 행할 수 있다. 표시부(101)는, 유저가 자유롭게 카메라(100)에 대해 표시면의 방향과 각도를 변경하고, 회전시킬 수 있는, 배리어블 앵글형 디스플레이이다.
불휘발성 메모리(214)는, 예를 들어, 전기적으로 소거 및 기억가능한 EEPROM이다. 불휘발성 메모리(214)에는, 시스템 제어부(201)의 동작용의, 예를 들어, 상수 및 프로그램이 기억된다. 이와 관련하여, "프로그램"은, 후술하는 표시 제어 처리의 흐름도를 실행하기 위한 프로그램을 말한다.
시스템 제어부(201)는, 카메라(100)의 전체 제어를 행하는 연산 처리장치이며, 불휘발성 메모리(214)에 기억된 프로그램을 실행함으로써, 후술하는 본 실시형태의 표시 제어 처리를 실현한다. 시스템 메모리(213)는, 예를 들면, RAM이며, 시스템 제어부(201)의 동작용의 상수 및 변수와, 불휘발성 메모리(214)로부터 판독한 프로그램을 전개하는 워크 메모리로서 사용된다. 시스템 제어부(201)는 메모리(209), D/A 변환기(210), 표시부(101) 등을 제어함으로써, 표시 제어도 행한다.
시스템 타이머(212)는 각종 제어를 위한 기간과, 내장된 시계의 시간을 계측하는 타이머 회로이다.
모드 다이얼(103), 제1 셔터 스위치(102a), 제2 셔터 스위치(102b) 및 조작부(215)는 시스템 제어부(201)에 각종의 동작 지시를 입력하기 위한 조작부재이다.
모드 다이얼(103)은, 시스템 제어부(201)의 동작 모드를 정지화상 촬영 모드, 동화상 기록 모드 및 재생 모드 등의 어느 한 개로 전환한다. 정지화상 촬영 모드는, 오토 촬영 모드, 오토 씬 판별 모드, 매뉴얼 모드, 씬별 촬영 모드, 프로그램 AE 모드, 커스텀 모드 등을 포함한다. 모드 다이얼(103)을 이용하여, 정지화상 촬영 모드에 포함되는 복수의 모드의 어느 한 개로 모드가 직접 전환된다. 이와 달리, 모드 다이얼(103)을 이용하여, 화상 촬영 모드로 전환한 후에, 정지화상 촬영 모드에 포함되는 복수의 모드 중 어느 한 개로, 다른 조작부재를 사용해서 전환하는 것도 가능하다. 마찬가지로, 동화상 기록 모드도 복수의 모드를 포함하여도 된다.
카메라(100)에 설치된 셔터 해제 버튼(102)이 조작되는 동안, 즉 반누름되는 동안(촬영 준비 지시), 제1 셔터 스위치(102a)가 온이 되어 제1 셔터 스위치 신호 SW1을 발생한다. 제1 셔터 스위치 신호 SW1를 수신하면, 시스템 제어부(201)는, 화상처리부(202)에게 AF(Automatic Focus) 처리, AE(Automatic Exposure) 처리, AWB(Automatic White Balance) 처리, EF(플래시 프리발광) 처리 등을 개시하게 한다.
셔터 해제 버튼(102)의 조작이 완료되면, 즉, 셔터 해제 버튼(102)이 완전히 눌리면(촬영 지시), 제2 셔터 스위치(102b)가 온이 되어, 제2 셔터 스위치 신호 SW2를 발생한다. 제2 셔터 스위치 신호 SW2의 수신시에, 시스템 제어부(201)는, 촬상부(206)로부터의 신호 판독으로부터 기록 매체(223)에 화상 데이터를 기록할 때까지의 일련의 촬영 처리를 개시한다.
표시부(101)에 표시되는 다양한 기능 아이콘을 선택함으로써, 조작부(215)의 각 조작부재에는 각각의 상황에 대해 적절한 기능이 할당되어, 조작부(215)가 각종 기능 버튼으로서 작용한다. 이들 기능 버튼의 예로는, 종료 버튼, 되돌림 버튼, 화상 이송 버튼, 점프 버튼, 축소 버튼, 속성 변경 버튼 등을 들 수 있다. 예를 들면, 메뉴 버튼(105)을 누름으로써 각종의 설정을 가능하게 하는 메뉴 화면이 표시부(101)에 표시된다. 유저는, 표시부(101)에 표시된 메뉴 화면과, 십자 키(107)와 SET 버튼(108)을 사용해서 직감적으로 각종 설정을 행할 수 있다.
조작부(215) 중에는, 표시부(101)에 대한 접촉 조작을 검출가능한 터치패널(터치 스크린)(101b)도 포함된다. 터치패널(101b)과 표시부(101)는 일체로 구성할 수 있다. 예를 들면, 터치패널(101b)을 빛의 투과율이 표시부(101)에 의해 제공된 표시를 방해하지 않도록 구성하고, 표시부(101)의 표시면의 최상층에 부착한다. 더구나, 터치패널(101b)에 있어서의 입력 좌표와, 표시부(101) 상의 표시 좌표를 대응시킨다. 이에 따라, 유저가 표시부(101) 위에 표시된 화면을 직접적으로 조작가능하도록 할 수 있는 GUI를 구성할 수 있다. 시스템 제어부(201)는 터치패널(101b)에 접촉함으로써 행해지는 이하의 터치 조작 및 상태를 검출가능하다.
·터치패널(101b)을 손가락이나 펜으로 접촉하는 것(이하, 터치 다운이라고 부른다).
·터치패널(101b)을 손가락이나 펜으로 접촉하고 있는 상태(이하, 터치 온이라고 부른다).
·터치패널(101b)을 손가락이나 펜으로 접촉한 채 이동하는 것(이하, 터치 무브라고 부른다).
·터치패널(101b)에 접촉하고 있었던 손가락이나 펜을 떼는 것(이하, 터치 업이라고 부른다).
·터치패널(101b)에 아무것도 접촉하지 않고 있는 상태(이하, 터치 오프라고 부른다).
이들 조작과, 터치패널(101b) 위에 손가락이나 펜이 접하고 있는 위치 좌표는 내부 버스를 거쳐 시스템 제어부(201)에 통지되고, 시스템 제어부(201)는 통지된 정보에 근거하여 터치패널(101b) 위에 어떤 종류의 조작이 행해졌는지를 판정한다. "터치 무브"에 대해서는, 터치패널(101b) 위에서 이동하는 손가락이나 펜의 이동 방향에 대해, 위치 좌표의 변화에 근거하여, 수직 성분 및 수평 성분마다 판정이 행해질 수 있다. 또한, 터치패널(101b) 위를 "터치 다운"한 후 일정한 "터치 무브" 후에 "터치 업"을 행했을 때, 스트로크를 그린 것으로 추정한다. 재빠르게 스트로크를 그리는 동작은 "플릭"으로 부른다. "플릭"은, 터치 패널(101b)에 손가락을 접촉한 채, 손가락을 재빠르게 특정한 거리만큼 이동한 후 떼는 조작이다. 바꿔 말하면, 이것은 터치패널(101b)의 표면을 가로질러 손가락을 튕기도록 재빠르게 덧그리는 조작이다. 시스템 제어부(201)는, 소정 거리 이상을 소정의 속도 이상에서 이동한 것을 검출한 후 "터치 업"을 검출하면 "플릭"이 행해졌다고 판정할 수 있다. 또한, 시스템 제어부(201)는, 소정 거리 이상을 소정의 속도 미만의 속도에서 이동한 것을 검출한 경우에는 "드래그"가 행해졌다고 판정할 수 있다. 또한, 터치패널(101b)에 대해 2개소(2점)를 동시에 손가락 또는 펜으로 터치하고 있는 상태에서, 2점 사이의 거리를 좁히는 조작을 "핀치 인"이라고 부른다. 즉, 핀치 인은, 터치패널(101b) 위의 2점에 손가락을 접촉한 채 손가락끼리를 근접시키는 조작(복수 개소의 터치 위치 사이의 거리를 좁히는 조작)이다. 바꾸어 말하면, 핀치 인은, 터치패널(101b)에 표시된 화상 등의 오브젝트를 집는 것 같이 터치패널(101b)을 가로질러 2개의 손가락을 움직이는 조작이다. 핀치 인과는 달리, 터치 패널(101b)의 2점을 동시에 손가락 또는 펜으로 터치하고 있는 상태에서, 2점 사이의 거리를 넓히는 조작(복수 개소의 터치 위치 사이의 거리를 넓히는 조작)을 핀치 아웃이라고 부른다. 터치패널(101b)은, 저항막, 정전용량, 표면 탄성파, 적외선, 전자유도 방식, 화상 인식 및 광 센싱 중에서 어느 한 개에 의존하는 방식을 사용해도 된다.
전원 제어부(219)는, 예를 들어, 배터리 검출회로, DC-DC 컨버터, 통전하는 블록을 전환하는 스위치회로로 구성되고, 배터리의 장착의 유무, 배터리의 종류, 배터리 잔량의 검출을 행한다. 또한, 전원 제어부(219)는, 그 검출 결과 및 시스템 제어부(201)의 지시에 따라 DC-DC 컨버터를 제어하고, 필요한 전압을 필요한 기간 동안 기록 매체(223)를 포함하는 각 부에 공급한다.
전원부(220)는, 알칼리 배터리나 리튬 배터리 등의 1차 배터리, NiCd 배터리, NiMH 배터리, Li 이온 배터리 등의 2차 배터리, 또는 AC 어댑터를 구비한다. 기록매체 인터페이스(I/F)(222)는, 메모리 카드나 하드디스크 등의 기록매체I(223)와의 인터페이스다. 기록매체I(223)는, 촬영된 화상을 기록하기 위한 메모리 카드 등의 기록매체이며, 반도체 메모리나 자기 디스크 등으로 구성된다.
더구나, 본 실시형태의 카메라(100)는, 무선 안테나나 유선 케이블을 거쳐 통신가능하게 접속된 외부기기에 대해 영상 및 음성을 송수신하는 통신부를 갖는다. 외부기기로서는, 퍼스널컴퓨터, 퍼스널컴퓨터의 일종인 태블릿 단말, 프린터, 다른 디지털 카메라, 휴대전화의 일종인 스마트 폰, 각종 서비스 제공 서버 등이 상정된다.
이때, 하드웨어의 구성은 도 2에 나타낸 것에 한정되지 않고, 예를 들면, 1개의 하드웨어가 표시 제어, 통신 제어, 촬영 제어, 화상처리 제어 등을 행하여, 카메라(100)의 각 유닛 또는 블록으로서 기능하는 구성도 가능하다. 이와 달리, 복수의 하드웨어가 협동해서 1개의 유닛 또는 블록으로서 기능하는 것도 가능하다.
표시 제어 처리
다음에, 도 3a 내지 도 5를 참조하여, 본 실시형태의 카메라(100)의 표시 제어 동작에 대해 설명한다.
도 3a 내지 도 3e는, 표시부(101)의 표시 화면에 표시되어 있는 화상에 대해 확대 표시를 행하기 위해, 핀치 아웃을 행하여 2점의 터치 위치의 중심을 기준으로 확대 표시를 행하는 제1 확대 처리를 행하는 경우와, 터치 위치에 무관하게 화면 중앙을 기준으로 하여 확대 표시를 행하는 제2 확대 처리를 행하는 경우의 표시 예를 나타내고 있다.
도 3a는 표시부(101)의 표시 화면에 화상 전체를 확대하지 않고 표시한 상태를 나타낸 것이다. 도 3b는 표시 화면에 대해 핀치 아웃을 행한 터치 위치의 중심(중심점)을 기준으로 확대 표시를 행하는 제1 확대 처리의 표시 예를 나타낸 것이다. 도 3b에서는, 2점의 터치 위치의 거리에 근거한 확대율로 2점의 터치 위치 사이의 중심(301)을 기준으로 화상을 확대한다. 따라서, 확대의 전후(도 3a와 도 3b)에, 확대 기준이 되는 터치 위치의 중심(301)에 위치하는 피사체 부분(도 3a 및 도 3b의 예에서는, 여성의 코의 근처)의 표시 화면 상에서의 위치가 바뀌지 않는다. 한편, 확대의 전후(도 3a와 도 3b)에, 확대 기준이 되는 터치 위치의 중심(301)에 위치하지 않는 피사체 부분은, 화상의 확대에 따라 터치 위치의 중심(301)에 대해 동심원 형상으로 위치가 바뀐다. 예를 들면, 도 3b의 여성의 좌측 귀는, 도 3a의 여성의 좌측 귀보다 커져, 좌측으로 이동하고, 도 3b의 여성의 우측 귀는 도 3a의 여성의 우측 귀보다 커져 우측으로 이동한다. 이러한 제1 확대 처리에서는, 화상을 확대하여 보고 싶은 위치(예를 들면, 여성의 얼굴)에 2개의 손가락으로 동시에 터치한 후에 손가락 사이의 거리를 넓힘으로써, 화상이 크게 이동하지 않고 보고 싶은 위치에서 확대된다. 도 3b의 예에서는, 여성의 얼굴이 확대된 후에 화면 밖으로 튀어나오지 않고 시인할 수 있다. 이렇게, 제1 확대 처리에서는, 유저가 화상을 확대하여 보고 싶은 위치에서, 적은 조작 절차로 화상을 직감적으로 확대하여 확인할 수 있다.
도 3c는 터치 위치에 상관없이 화면 중앙을 기준으로 하여 확대 표시를 행하는 제2 확대 처리의 제1 표시 예다. 도 3c에서는, 터치가 검출된 위치에 상관없이, 표시 화면(화상의 표시되어 있는 영역)의 중앙(302)을 기준으로 하여 2점의 터치 위치의 거리에 근거한 확대율로 화상이 확대된다. 따라서, 확대의 전후(도 3a와 도 3c)에, 확대 기준이 되는 표시 화면의 중앙(302)에 위치하고 있는 피사체 부분(도 3a 및 도 3c의 예에서는, 여성의 가슴 근처)의 표시 화면 상에서의 위치가 바뀌지 않는다. 한편, 확대의 전후(도 3a와 도 3c)에, 확대 기준이 되는 표시 화면의 중앙(302)에 있지 않은 피사체 부분은, 화상의 확대에 따라 표시 화면의 중앙(302)에 대해 동심원 형상으로 위치가 바뀐다. 이러한 표시 화면의 중앙(302)과 확대의 기준점이 일치하면, 확대 전후에 화면 중앙에 대해 동심원 형상으로 피사체 부분의 위치가 바뀌므로, 확대 전후의 화상의 위치 관계를 이해하기 쉬워진다. 또한, 표시 화면의 중앙(302)을 확대 기준으로 사용하는 확대는, 확대 전후에 화면 중앙을 중심에 대해 동심원 형상으로 피사체 부분의 위치가 바뀐다는 점에서 촬영시의 광학 줌과 동일하여, 직관적이다. 또한, 확대 버튼(109)을 사용한 경우에도, 화면(화상의 표시 영역)의 중앙(화상의 표시 영역의 중앙에 위치하고 있는 화상의 부분)을 기준으로 하여 확대 표시가 행해진다(제2 확대 처리가 행해진다). 화상의 표시 영역과, 다른 표시물의 표시 영역을 분리한 화면(미도시)을 표시하는 경우에, 화상이 표시되지 않고 있는 다른 표시물의 표시 영역의 위치에서 핀치 조작이 행해진 경우에도, 화상의 표시 영역의 중앙을 기준으로 하여 확대 표시가 행해진다(제2 확대 처리가 행해진다).
도 3d는 터치 위치에 근거하지 않는 제2 확대 처리의 제2 표시 예이며, 표시 화면(화상)의 한 변의 단부(303)를 중심으로 해서 확대 표시를 행하는 경우를 나타내고 있다. 도 3d의 처리는, 화상의 단부(303) 부근에 있는 피사체를 확대하여 확인하고 싶을 경우에 유효하다. 화상을 확대한 상태에서, 화상의 단부가 표시되는 범위를 표시하는 경우, 유저가 화상의 단부에 주목하고 있다고 상정할 수 있다. 화상의 단부(303)는 표시 화면의 단부에 표시되는 일이 많지만, 유저가 표시 화면의 단부에 있어서 핀치 조작(핀치 아웃)을 행해서 2점의 터치 위치에 근거한 확대 표시를 행하는 것은 곤란하다. 이것을 감안하여, 본 실시형태에서는, 도 3d와 같이 화상의 단부를 포함하는 일부분을 표시하고 있는 경우에는, 핀치 아웃/핀치 인에 따라, 표시되어 있는 단부(변)의 중앙(도 3d의 예에서는, 좌측 단부의 상하 중앙인 단부(303))을 기준으로 하여 확대/축소 처리를 행한다. 이에 따라, 화면 중앙에서 핀치 아웃을 행함으로써 화상의 단부(303)를 기준으로 확대 표시를 행할 수 있어, 표시 화면의 단부에서 핀치 조작을 행할 필요가 없다. 도 3c와 같이 화면 중앙을 기준으로 화상을 확대하는 경우에는, 화상의 단부(303)가 표시 화면의 표시 범위의 밖으로 이동해 버리지만, 화상의 단부(303)를 기준으로 한 확대에서는, 단부(303)에 대해 동심원 형상으로 피사체 부분의 위치가 바뀐다. 따라서, 도 3d의 상태에서 화상의 좌측의 단부(303)를 기준으로 한 확대를 행하면, 화상의 확대에 따라 좌측으로 이동하는 부분이 존재하지 않는다. 이렇게 확대 표시를 행함으로써, 확대후에 좌측 단부를 보기 위해 터치 무브를 행함으로써 표시 위치를 변경할 필요가 없어진다.
도 3e는 터치 위치에 근거하지 않는 제2 확대 처리의 제3 표시 예이며, 표시 화면(화상)의 2변이 교차하는 모서리부(304)를 중심으로 해서 확대 처리를 행하는 경우를 나타내고 있다. 도 3e의 처리는, 화상의 단부, 특히 표시 화면의 모서리부에 있는 피사체 등을 확대하여 보고 싶은 경우에 유효하다. 본 실시형태에서는, 도 3e와 같이 화상의 꼭짓점부(모서리부)를 포함하는 일부분을 표시하고 있는 경우에는, 핀치 아웃/"핀치 인"에 따라, 표시되어 있는 꼭짓점부(모서리부)의 중앙(도 3e의 예에서는, 화상의 우측 하부 꼭짓점인 모서리부(304))을 기준으로 하여 확대/축소 처리를 행한다. 화상의 모서리부(304)를 기준으로 한 확대에서는, 모서리부(304)를 중심에 대해 동심원 형상으로 피사체 부분의 위치가 바뀐다. 따라서, 도 3e의 상태에서 화상의 모서리부(304)를 기준으로 한 확대를 행하면, 화상의 확대에 따라 우측 또는 아래쪽으로 이동하는 부분이 존재하지 않는다. 따라서, 모서리부(304)에 위치하는 피사체 부분은, 확대 전후에서 표시 화면의 우측 아래로부터 이동하지 않는다. 이에 따라, 유저는, 화면 중앙에서 핀치 아웃을 행함으로써 2점의 터치 위치의 거리에 근거한 확대율로 화상의 모서리부(304)가 표시 범위 밖으로 튀어나오지 않도록 확대 표시를 행할 수 있으며, 표시 화면의 모서리부에서 핀치 조작을 행할 필요가 없다.
도 4a 내지 도 4h는 표시 화면에의 핀치 조작을 행하여 화상을 확대 표시할 때에, 터치 위치에 근거한 제1 확대 처리를 행하는 것과, 터치 위치에 근거하지 않는 제2 확대 처리를 행하는 것 사이에서, 핀치 조작이 행해지기 전부터 계속되는 소정의 터치 조작(터치 무브)에 따라 전환이 행해지는 경우의 표시 예를 나타내고 있다. 본 실시형태에서는, 핀치 아웃이 검출되기 전에 터치 무브를 행하여 화상의 표시 위치를 변경하는 조작이 행해진 경우에는 제2 확대 처리를 행하고, 핀치 아웃이 검출되기 전에 터치 무브를 행하여 화상의 표시 위치를 변경하는 조작이 행해지지 않고 있는 경우에는 제1 확대 처리를 행하도록 제어가 행해진다.
도 4a는 표시부(101)의 표시 화면에 화상 전체를 확대하지 않고 표시한 상태를 나타낸 것이다. 도 4b는 도 4a의 표시 상태로부터 핀치 아웃을 행하여 확대 표시를 행하는 상태를 나타낸 것이다. 도 4b에서는, 핀치 아웃이 검출되기 전에 터치 무브를 행하여 화상의 표시 위치가 변경되지 않으므로, 터치 위치에 근거한 제1 확대 처리를 행한다. 따라서, 도 4b에서는, 2점의 터치 위치의 중심(401)을 기준으로 하여 2점의 터치 위치의 거리에 근거한 확대율로 화상에 대해 확대 표시를 행하므로, 유저는 확대하여 보고 싶은 화상의 부분(터치 위치의 중심 부근)이 화상의 확대에 따라 더 적은 양으로 이동하도록 확대를 행할 수 있고, 핀치 아웃을 행하여 2점의 터치 위치의 거리를 조정하면서 확대 표시를 행할 수 있다.
도 4c는, 도 4b를 참조하여 설명한 것과 같이 확대된 화상의 표시 상태로부터 1점(1개소)에서의 터치 무브를 행하여 화상의 표시 위치(표시 범위)를 변경한 경우의 표시 예이며, 터치 무브를 행한 후에, 터치가 떼어지지 않고 터치 온이 유지되어 있다. 표시 대상(화상)의 일부분을 표시하고 있는 경우에(예를 들면, 확대하는 경우에), 터치 무브를 행하여 표시 범위를 변경한(스크롤한) 경우, 유저는, 보고 싶은 부분(주목 부분)이 화면 중앙에 표시되어 있도록 표시 범위를 변경한 것으로 상정된다. 도 4c의 예에서는, 터치 무브를 행하여, 화상 중, 도 4b에서 대부분이 화면 좌측 외측(표시 범위 밖)에 위치하고 있었던, 여성이 우측 손에 있는 꽃이 표시 화면 내에 들어가도록 표시 위치가 변경되어 있다. 이렇게 화면 중앙 부근으로 이동시킨 꽃의 부분이 주목 부분이라고 생각된다. 주목 피사체인 꽃을 화면에 표시시킨 결과, 유저는 꽃을 더 확대하여 보고 싶을 수도 있다.
도 4d는, 본 실시형태를 적용하지 않는 경우의 예이며, 첫번째 점에서 터치 무브를 행하여 도 4c의 표시 상태가 얻어진 후, 첫번째 점에서의 터치를 떼지 않고 추가로 두번째 점에서 터치를 행하고, 핀치 아웃을 행하여해 확대 처리를 행한 경우를 설명한 도면이다. 첫번째 터치 점과 두번째 터치 점의 중앙(402)을 기준으로 하여 화상을 확대하는 제1 확대 처리를 행하면, 확대후의 표시 상태는 도 4d와 같이 얻어진다. 도 4d에서는, 터치 무브를 도 4c와 같이 행하여 화면 중앙으로 이동시킨 피사체의 주목 부분(꽃)이 화면의 표시 범위의 외측(좌측 외측)으로 이동하여, 주목 부분의 대부분을 더 이상 볼 수 없다. 따라서, 유저는 확대한 꽃을 볼 수 없다. 확대된 주목 부분을 보기 위해서는, 유저는, 터치 무브를 더 행하여, 주목 부분이 표시 화면에 들어가도록 화상의 표시 위치를 변경할 필요가 있다.
한편, 도 4e는, 본 실시형태를 적용한 예이며, 첫번째 점에서 터치 무브를 행하여 도 4c의 표시 상태를 얻은 후, 첫번째 점의 터치를 떼지 않고 추가로 두번째 점에서 터치를 행하고, 핀치 아웃을 행하여 확대 처리를 행한 경우를 설명한 도면이다. 본 실시형태에서는, 이 경우에는 전술한 제2 확대 처리를 행한다. 따라서, 이 경우의 확대/축소의 기준위치는 표시 화면의 중앙(403)이 되고, 도 4c의 상태로부터 확대한 후에 표시 상태가 도 4e와 같이 얻어진다. 도 4e에서는, 터치 무브를 행하여 도 4c와 같이 화면 중앙으로 이동시킨 피사체의 주목 부분(꽃)이 확대되어 표시 화면 내에 위치하고 있다. 따라서, 유저는, 터치 무브를 더 행하지 않고, 확대한 꽃을 볼 수 있다. 표시부(101)의 화면 사이즈가 큰 경우에는, 핀치 아웃후에 터치 무브를 더 행하지 않고 주목 부분을 볼 수 있는 이점은, 터치 위치를 크게 이동하는 터치 조작을 생략할 수 있기 때문에 특히 크다. 이때, 도 4d 및 도 4e에 있어서의 핀치 조작은 유사하지만, 제1 확대 처리를 행하는 경우와, 제2 확대 처리를 행하는 경우에서 확대 처리를 행한 결과가 다르다.
도 4f는, 도 4b의 확대 화상의 표시 상태로부터 터치 무브를 행하여 화상의 표시 위치를 변경한 상태를 나타내고 있다. 도 4f는 화상의 우측 단부까지 표시 범위를 변경(즉, 화상의 우측 단부가 표시 화면 내에 도달할 때까지 표시 범위를 이동)하는 터치 무브를 행한 경우의 표시 예를 나타내고, 터치 무브를 행한 후에도 터치 다운이 유지되어 있다. 이렇게 표시 대상(화상)의 단부까지 표시 범위를 변경한 경우, 표시되고 있는 표시 대상(화상)의 단부가 주목 부분이라고 생각된다. 예를 들면, 본 실시형태와 같이 표시 대상이 촬상 화상인 경우, 촬영하고 싶었던 피사체가 화상 내에 들어가 있을지, 또는, 불필요한 피사체가 포함되어 있는지 않은지를 확인하기 위해, 단부를 주목 부분으로 사용하는 경우가 있다. 주목 피사체인 화상 단부를 화면 상에 표시시킨 결과, 유저는, 단부를 더 확대하여 보고 싶을 수도 있다.
도 4g는, 본 실시형태를 적용하지 않는 경우의 예이며, 첫번째 점에서의 터치 무브를 행하여 도 4f의 표시 상태를 얻은 후, 첫번째 점에서의 터치를 떼지 않고 추가로 두번째 점에서 터치를 행하고, 핀치 아웃을 행하여 확대 처리를 행한 경우를 설명한 도면이다. 첫번째 터치 점과 두번째 터치 점의 중앙(404)을 기준으로 하여 화상을 확대하는 제1 확대 처리를 행하면, 확대후의 표시 상태는 도 4g와 같이 얻어진다. 도 4g에서는, 터치 무브를 행하여 도 4f와 같이 표시 범위에 모인 화상의 단부(우측 단부)가 표시 범위의 외측(우측 외측)으로 이동하고, 주목 부분이었던 우측 단부를 더 이상 볼 수 없다. 따라서, 유저는, 촬영하고 싶었던 피사체가 화상 내에 들어가 있는지, 또는, 불필요한 피사체가 포함되는지 아닌지를 확인할 수 없다. 확대된 주목 부분(우측 단부)을 보기 위해서는, 유저는, 터치 무브를 더 행하여, 주목 부분(우측 단부)이 표시 화면에 들어가도록 화상의 표시 위치를 변경할 필요가 있다.
또한, 도 4h는, 본 실시형태를 적용한 예이며, 첫번째 점에서 터치 무브를 행하여 도 4f의 표시 상태를 얻은 후, 첫번째 점의 터치를 떼지 않고 추가로 두번째 점에서 터치를 행하고, 핀치 아웃을 행하여 확대 처리를 행한 경우를 설명한 도면이다. 본 실시형태에서는, 이 경우에는 전술한 제2 확대 처리를 행한다. 따라서, 이 경우의 확대/축소의 기준위치는 화상의 단부(405)가 되고, 도 4f의 상태로부터 확대한 후 표시 상태가 도 4h와 같이 얻어진다. 이때, 확대/축소의 기준이 되는 단부(405)는, 표시되고 있는 단부(변)의 길이 방향의 중심점이다. 화면의 단부의 한 변의 길이 방향의 중심점, 즉, 도 4h에서는, 터치 무브를 행하여 도 4f와 같이 표시 범위 내로 이동시킨 피사체의 주목 부분(화상 우측 단부)이 확대되어 표시 화면 내에 위치하고 있다. 따라서, 유저는, 터치 무브를 더 행하지 않고, 확대한 우측 단부를 볼 수 있어, 촬영하고 싶었던 피사체가 우측 단부로부터 내측으로 들어가 있는지, 또는, 불필요한 피사체가 우측 단부에 포함되는지 아닌지를 확인 할 수 있다. 도 4g 및 도 4h에 있어서의 핀치 조작은 유사하지만, 제1 확대 처리를 행하는 경우와, 제2 확대 처리를 행하는 경우에서 확대 처리를 행한 결과가 다르다. 또한, 도 3e를 참조하여 설명한 것과 같이, 표시 범위가 표시 대상의 꼭짓점/모서리에 이르고 있는 경우(바꿔 말하면, 표시 범위가 표시 대상의 연속된 2변에 이르고 있는 경우)에는, 표시 범위에 이르고 있는 꼭짓점을 기준으로 하여 확대/축소를 행한다.
도 5는, 본 실시형태의 카메라(100)에 의해 행해진 화상을 확대 또는 축소하는 표시 제어 처리를 나타내고 있다. 이때, 도 5의 처리는, 불휘발성 메모리(214)에 격납된 프로그램을 시스템 메모리(213)에 전개해서 시스템 제어부(201)가 이 프로그램을 실행함으로써 실현된다. 또한, 도 5의 처리는, 카메라(100)의 동작 모드가 재생 모드 등으로 설정되고, 기록매체(223)로부터 화상을 판독해서 표시부(101)에 표시하고 있는 상태에서, 표시부(101)(터치패널(101b))에 대한 터치(터치 다운) 조작이 검출되면 개시된다.
스텝 S501에서, 시스템 제어부(201)는, 터치 무브 플래그를 오프로 변경하고, 스텝 S502로 절차를 진행한다.
스텝 S502에서, 시스템 제어부(201)는, 표시부(101)에 표시된 화상에 대해 확대 표시가 행해지고 있는지 아닌지를 판정한다. 확대 표시가 행해지고 있는 경우에는, 스텝 S503으로 절차를 진행하고, 확대 표시가 행해지고 있지 않은 경우에는 스텝 S506으로 절차를 진행한다.
스텝 S503에서, 시스템 제어부(201)는, 1개소가 화면이 터치된 상태에서의 터치 무브가 검출되었는지 아닌지를 판정한다. 이와 같은 터치 무브가 검출된 경우에는 스텝 S504로 절차를 진행하고, 이와 같은 터치 무브가 검출되지 않은 경우에는 스텝 S506으로 절차를 진행한다.
스텝 S504에서, 시스템 제어부(201)는, 스텝 S504에서 검출된 터치 무브의 이동량에 따라 확대 표시중인 화상의 표시 위치를 변경하고, 스텝 S505로 절차를 진행한다. 이때, 도 5의 흐름도에서는 처리를 생략하고 있지만, 화면의 1개소가 터치된 상태에서 터치 무브가 검출되고 확대 표시가 행해지고 있지 않은 경우(스텝 S502에서 NO로 판정되는 경우)에, 표시되고 있는 화상을 다른 화상으로 전환하는 화상 전환이 행해진다.
스텝 S505에서, 시스템 제어부(201)는, 터치 무브 플래그를 온으로 변경하고, 스텝 S506으로 절차를 진행한다. 단, 스텝 S504에서 터치 무브의 이동이 소정량 이상이 아닌 경우(이동량이 작은 경우), 터치 무브 플래그는 변경하지 않아도 된다. 이것은, 터치 무브 플래그의 설정이 온인지 오프인지에 따라, 핀치 아웃을 행하는 것에 의한 확대 처리를, 터치 위치에 근거한 제1 확대 처리와 터치 위치에 근거하지 않는 제2 확대 처리 사이에서 전환하지만, 표시 위치를 미세하기 조정하기 위해 표시 위치를 약간 이동한 것 만으로 터치 무브 플래그가 온이 되면, 확대 처리를 위한 기준 위치가 부주의하게 변동해 버려, 유저의 의도에 맞지 않을 수 있기 때문이다. 따라서, 확대 표시 위치를 이동하게 하는 터치 무브가 행해져도, 표시 위치의 이동이 소정량 미만의 약간의 이동인 경우에는, 터치 무브 플래그는 온으로 되지 않는다(후술하는 핀치 조작에 의한 확대 처리로서 제1 확대 처리가 채용된다). 이때, 스텝 S504 및 스텝 S505의 처리는, 터치 오프 상태후 1점(1개소)에서의 터치 다운을 검출한 경우에 행해지는 1점(1개소)의 화면 터치에 의해 행해지는 터치 조작(싱글 터치 조작)에 근거한 처리이다. 터치 오프의 상태 후에 복수 점(복수 개소)에서 동시 또는 대략 동시의 터치 다운을 검출한 경우에는, 스텝 S501 및 스텝 S502의 처리후에, 스텝 S503에서 NO가 판정되어, 후술하는 스텝 S506으로 절차가 진행한다.
스텝 S506에서, 시스템 제어부(201)는, 모든 터치 개소의 터치 업이 검출되었는지 아닌지 판정한다. 모든 터치 개소의 터치 업이 검출된 경우에는, 터치 오프 상태로 진입하므로, 본 흐름도의 처리를 종료한다. 모든 터치 개소의 터치 업이 검출되지 않은 경우에는, 스텝 S507로 절차를 진행한다.
스텝 S507에서, 시스템 제어부(201)는, 터치패널의 복수 개소(2개소)에서 터치 조작(2점 이상에서의 터치)이 행해지는 멀티 터치 조작이 행해졌는지 아닌지 판정한다. 멀티 터치 조작이 행해지지 않은 경우에는, 스텝 S502로 절차를 진행하고, 멀티 터치 조작인 경우에는, 스텝 S508로 절차를 진행한다. 터치 오프 상태후 1점(1개소)에서의 터치 다운을 검출한 후, 터치 업하지 않고 두번째 점에서의 터치 다운이 행해진 경우에, 스텝 S507에서 멀티 터치 조작이 행해진 것으로 판정된다. 또한, 터치 오프의 상태후 복수점(복수 개소)에서의 동시 또는 대략 동시의 터치 다운을 검출한 경우도, 스텝 S501 및 스텝 S502의 처리 후, 스텝 S503에서 NO로 판정되고, 스텝 S506에서 멀티 터치 조작이 행해진 것으로 판정된다. 이때, 본 실시형태에서는, 3점(3개소) 이상의 터치도, 2점 터치에 의한 멀티 터치 조작으로서 처리하고, 3점째 이상의 터치는 무시한다. 단, 3점(3개소) 이상의 터치 조작에 대응하는 기능이 할당된 경우에는, 스텝 S507에서는 NO로 판정하여, 3점 이상의 터치에 대응하는 처리를 행해도 된다.
스텝 S508에서, 시스템 제어부(201)는, 핀치 조작(핀치 아웃 또는 핀치 인)이 행해졌는지 아닌지 판정한다. 핀치 조작이 행해진 경우에는 스텝 S509로 절차를 진행하고, 핀치 조작이 행해지지 않고 있는 경우에는 스텝 S507로 절차를 되돌린다.
스텝 S509에서, 시스템 제어부(201)는, 터치 무브 플래그가 온인지 아닌지를 판정한다. 터치 무브 플래그가 온인 경우에는 스텝 S511로 절차를 진행하고, 터치 무브 플래그가 오프인 경우에는 스텝 S510으로 절차를 진행한다.
스텝 S510에서, 시스템 제어부(201)는, 핀치 조작에 따라 2점의 터치 위치의 중심을 기준으로 하여 화상에 대해 확대 처리(제1 확대 처리) 또는 축소 처리를 행하고, 스텝 S507로 절차를 되돌린다. 이에 따라, 전술한 도 4a로부터 도 4b로 변화를 일으키는 전술한 확대 처리가 행해진다. 이때, 핀치 조작의 도중에 표시 범위가 화상의 단부에 도달하더라도, 2점의 터치 위치의 중심이 계속해서 확대/축소의 기준이 된다. 이 경우, 화상의 단부를 초과한 범위가 표시되지 않도록, 확대 또는 축소후의 표시 범위를 수시 보정(오프셋)한다. 따라서, 2점의 터치 위치의 중심을 기준으로 하여 확대 또는 축소가 행해질 때 표시 범위가 화상의 단부를 초과하는 경우에는, 표시 범위의 끝이 화상의 단부와 일치한다.
스텝 S511에서, 시스템 제어부(201)는, 화상의 단부가 화상의 표시 영역(화면)의 단부에 표시되어 있는지(표시 범위가 화상의 끝까지 이르고 있는지) 아닌지를 판정한다. 단부가 표시되어 있는 경우에는 스텝 S513으로 절차를 진행하고, 단부가 표시되지 않고 있는 경우에는 스텝 S512로 절차를 진행한다. 화상의 꼭짓점(모서리)이 화상의 표시 영역(화면)에 표시되어 있는 경우도 화상의 단부가 화상의 표시 영역(화면)의 단부에 표시되어 있는 경우에 포함되고, 스텝 S513으로 절차를 진행한다. 이 판정은, 싱글 터치에 의한 터치 무브를 행하여 얻어진 스크롤(표시 범위의 변경) 조작에 의해 화상의 단부가 화상의 표시 영역(화면)의 단부에 표시되어 있는지 아닌지에 대한 판정이다. 상기한 것과 같이, 확대/축소의 결과로써 화상의 단부가 화상의 표시 영역(화면)의 단부에 이른 경우는, 이 판정에서는 YES가 판정되지 않는다.
스텝 S512에서, 시스템 제어부(201)는, 표시 화면(화상의 표시 영역)의 중앙을 기준으로 하여 화상의 확대 처리(제2 확대 처리) 또는 축소 처리를 행하고, 스텝 S507로 절차를 되돌린다. 이것에 의해, 전술한 도 4c로부터 도 4d로 변화를 일으키는 확대 처리가 행해진다. 구체적으로는, 싱글 터치에 의한 터치 무브를 행하여 주목 부분이 표시 범위의 중앙 부근에 위치하도록 표시 범위를 변경한 후, 터치를 떼지 않고 멀티 터치 조작에 의해 핀치 아웃을 행함으로써, 주목 부분을 확대하여 확인할 수 있다.
스텝 S513에서, 시스템 제어부(201)는, 표시 화면의 단부에 위치하고 있는 화상의 단부를 기준으로 하여 화상의 확대 처리(제2 확대 처리) 또는 축소 처리를 행하고, 스텝 S507로 절차를 되돌린다. 전술한 것과 같이, 표시 범위가 화상의 1 단부에 이르고 있는 경우에는, 그 단부의 길이 방향의 중심점이 확대/축소의 기준점이 된다. 표시 범위가 화상의 2개의 연속된 단부(화상의 꼭짓점/모서리)에 이른 경우에는, 그 2개의 단부의 꼭짓점(모서리)이 확대/축소의 기준점이 된다. 스텝 S513의 처리에서, 전술한 도 4f로부터 도 4h로 변화를 일으키는 확대 처리가 행해진다.
이상의 처리에 따르면, 싱글 터치에 의한 터치 무브를 행하여 표시 범위를 변경한 후, 터치를 떼지 않고 핀치 아웃을 행함으로써, 화면 중앙 또는 화상의 끝을 기준으로 한 제2 확대 처리가 행해진다. 또한, 싱글 터치에 의한 터치 무브를 행하여 표시 범위를 변경하지 않고 핀치 아웃을 행함으로써, 2개소의 터치 위치의 중심점을 기준으로 한 제1 확대 처리가 행해진다. 더구나, 터치 오프로부터의 터치 다운을 검출할 때마다, 터치 무브 플래그가 오프된다. 따라서, 싱글 터치에 의한 터치 무브를 행하여 표시 범위를 변경한 후에도, 터치를 뗀 후 싱글 터치에 의한 터치 무브가 없이 핀치 아웃을 행함으로써, 2개소의 터치 위치의 중심점을 기준으로 한 제1 확대 처리가 행해진다. 전술한 것과 같이, 본 실시형태에 따르면, 핀치 아웃을 행하기 전에 터치 무브를 행하여 표시 범위의 변경이 행해졌는지 아닌지에 따라, 터치 위치에 근거한 확대 표시를 행하는 것과, 터치 위치에 근거하지 않는 확대 표시를 행하는 것 사이에서 전환이 행해지므로, 유저가 의도하는 확대 표시를 행할 수 있게 된다.
이때, 본 실시형태에 있어서, 2점 터치의 검출에 따라, 확대 처리의 기준 위치에, 도 3b의 "301"과 같은 도형과 기호의 표시나, 하이라이트 표시를 행함으로써, 확대의 기준 위치를 유저에게 통지하여도 된다. 유저는, 화면에 표시된 통지를 봄으로써, 본 실시형태의 스텝 S510, 스텝 S512 및 스텝 S513과 같이 상황에 따라 변화되는 확대/축소의 기준 위치를 파악할 수 있으므로, 원하는 위치(주목 부분)에서 혼란이 없이 쾌적하게 확대 조작을 행할 수 있다.
또한, 본 실시형태에서는, 설명을 간단하게 하기 위해, 핀치 아웃을 행하는 것에 의한 확대 처리의 예를 설명했지만, 핀치 인을 행하는 것에 의한 축소 처리도 마찬가지이다. 따라서, 본 실시형태의 표시 제어는 핀치 아웃에 한정되지 않고, 핀치 인이라도 적용가능하다. 또한, 본 실시형태에서는, 표시 대상으로서 화상을 사용하지만, 이것에 한정되지 않고, 표시 영역보다도 넓은 표시 대상의 범위의 일부를 표시하는 것이면 모든 표시 대상에 본 실시형태를 적용가능하다. 따라서, 표시 대상은, 문서, 문서와 화상을 포함하는 Web 페이지, 지도 등의 적어도 어느 한개이어도 된다.
변형예
전술한 실시형태에서는, 터치 오프 후, 싱글 터치에 의한 터치 무브가 없는 핀치 조작이 행해진 경우에, 터치 위치에 근거한 위치를 확대/축소의 기준 위치로 하는 제1 확대 처리를 행하는 예를 설명하였다. 변형예로서, 터치 오프가 된 후에도, 전회의 터치 조작으로부터 소정 기간 중에 터치 조작이 행해지면, 전회의 터치 조작과 동일한 기준을 기준으로 한 확대 처리를 행해도 된다. 이것을 실현하는 처리로서는, 우선, 전술한 도 5의 스텝 S506에서 YES로 판정되면(모든 터치 조작에 대해 터치 업이 행해진 것으로 판정하면), 다음번의 터치 조작까지의 시간을 계측하는 타이머를 스타트한다. 이와 달리, 멀티 터치 조작을 행하고 있었던 복수 개소의 터치 위치 중 1점을 제외한 터치 점에서 터치 업을 행하고, 싱글 터치 상태가 되면, 타이머를 스타트하는 구성이 채용되어도 된다. 그후, 터치 오프 상태후에 다시 터치 다운이 행해지는 경우에, 스텝 S501 전에, 타이머를 스타트한 후 소정 시간이 경과하였는지 아닌지를 판정한다. 소정 시간은, 유저가 전회의 터치 조작 이후로 연속된 일련의 터치 조작을 행하고 있다고 간주되는 시간이며, 예를 들면, 50 내지 500msec 정도이다. 소정 시간을 경과한 경우에는, 스텝 S501로 절차를 진행하여, 터치 무브 플래그를 오프하고, 이어서 전술한 도 5의 스텝 S502 이후의 처리를 행한다. 한편, 소정 시간을 경과하지 않은 경우는, 전술한 스텝 S501의 처리를 행하지 않고, 즉 터치 무브 플래그를 오프하지 않고, 전술한 도 5의 스텝 S502 이후의 처리를 행한다. 이렇게 터치 무브 플래그를 오프하지 않는 구성에서는, 터치 오프 상태 전의 전회의 터치 조작(제1 터치 조작)에서 싱글 터치에 의한 터치 무브를 행하고, 터치 무브 플래그가 온이 되면, 온 상태가 유지된다. 따라서, 이번의 터치 조작(제2 터치 조작)에서 싱글 터치에 의한 터치 무브가 없는 핀치 아웃 조작이 행해져도, 터치 위치에 근거하지 않는 제2 확대 처리(스텝 S512 또는 스텝 S513의 처리)가 행해진다. 이와 같은 구성에 따르면, 1회의 핀치 아웃에 의해 원하는 배율까지 확대를 달성할 수 없었을 경우에, 더 높은 정도로 확대를 행하기 위해 곧바로 다음의 핀치 아웃 조작을 행하는 경우에, 확대의 기준 위치를 전회의 핀치 아웃과 같게 할 수 있다. 따라서, 연속된 핀치 조작을 행하는 경우에, 확대/축소의 기준 위치가 변하지 않아, 바람직하다. 이것을 제외하고는, 변형예는 전술한 실시형태와 유사하다.
이상, 본 발명의 바람직한 실시형태에 대해 설명하였다. 본 발명은 이들 실시형태에 한정되지 않고, 본 발명의 요지의 범위 내에서 다양한 변형 및 변경이 가능하다.
이때, 1개의 하드웨어가 시스템 제어부(201)를 제어하거나, 복수의 하드웨어가 처리를 분담함으로써, 장치 전체를 제어해도 된다.
본 발명을 그것의 바람직한 실시형태에 근거하여 상세한 설명해 왔지만, 본 발명은 이들 특정의 실시형태에 한정되는 것은 아니고, 본 발명의 요지를 일탈하지 않는 범위의 다양한 형태도 본 발명에 포함된다. 전술한 각 실시형태는 본 발명의 일 실시형태를 나타낸 것에 지나지 않고, 각 실시형태를 적절히 조합할 수도 있다.
전술한 실시형태는, 본 발명을 디지털 카메라에 적용한 예를 설명했지만, 본 발명은 이 예에 한정되지 않는다. 본 발명은, 예를 들어, 터치패널에 대한 터치 조작에 따라 화상의 확대, 축소 및 이동 등의 표시 제어가 가능한 장치에 적용가능하다. 더욱 구체적으로 설명하면, 본 발명은, 퍼스널컴퓨터, 퍼스널컴퓨터의 일종인 태블릿 단말, 휴대전화 단말, 휴대전화 단말의 일종인 스마트 폰(안경형 단말장치와 손목 시계형 단말장치를 포함한다), PDA(휴대 정보단말), 휴대형의 화상 뷰어, 음악 플레이어, 게임기, 전자 북 리더와, 프린터, 스캐너, 팩시밀리 및/또는 복사기 등의 기능이 탑재된 사무기기, 의료기기 등에 적용가능하다.
기타 실시형태
본 발명의 실시형태는, 본 발명의 전술한 실시형태(들)의 1개 이상의 기능을 수행하기 위해 기억매체('비일시적인 컴퓨터 판독가능한 기억매체'로서 더 상세히 언급해도 된다)에 기록된 컴퓨터 실행가능한 명령(예를 들어, 1개 이상의 프로그램)을 판독하여 실행하거나 및/또는 전술한 실시예(들)의 1개 이상의 기능을 수행하는 1개 이상의 회로(예를 들어, 주문형 반도체 회로(ASIC)를 포함하는 시스템 또는 장치의 컴퓨터나, 예를 들면, 전술한 실시형태(들)의 1개 이상의 기능을 수행하기 위해 기억매체로부터 컴퓨터 실행가능한 명령을 판독하여 실행함으로써, 시스템 또는 장치의 컴퓨터에 의해 수행되는 방법에 의해 구현될 수도 있다. 컴퓨터는, 1개 이상의 중앙처리장치(CPU), 마이크로 처리장치(MPU) 또는 기타 회로를 구비하고, 별개의 컴퓨터들의 네트워크 또는 별개의 컴퓨터 프로세서들을 구비해도 된다. 컴퓨터 실행가능한 명령은, 예를 들어, 기억매체의 네트워크로부터 컴퓨터로 주어져도 된다. 기록매체는, 예를 들면, 1개 이상의 하드디스크, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 분산 컴퓨팅 시스템의 스토리지, 광 디스크(콤팩트 디스크(CD), 디지털 다기능 디스크(DVD), 또는 블루레이 디스크(BD)TM 등), 플래시 메모리소자, 메모리 카드 등을 구비해도 된다.
본 발명은, 상기한 실시형태의 1개 이상의 기능을 실현하는 프로그램을, 네트워크 또는 기억매체를 개입하여 시스템 혹은 장치에 공급하고, 그 시스템 혹은 장치의 컴퓨터에 있어서 1개 이상의 프로세서가 프로그램을 읽어 실행하는 처리에서도 실행가능하다. 또한, 1개 이상의 기능을 실현하는 회로(예를 들어, ASIC)에 의해서도 실행가능하다.
예시적인 실시형태들을 참조하여 본 발명을 설명하였지만, 본 발명이 이러한 실시형태에 한정되지 않는다는 것은 자명하다. 이하의 청구범위의 보호범위는 가장 넓게 해석되어 모든 변형, 동등물 구조 및 기능을 포괄하여야 한다.

Claims (19)

  1. 표시부에 대한 터치 조작을 검출하도록 구성된 터치 검출부와,
    상기 터치 검출부가 상기 표시부에 대한 멀티 터치 조작을 검출하고, 상기 터치 검출부가 상기 멀티 터치 조작의 검출 이전의 시간으로부터 상기 표시부 상에 유지된 상기 표시부에 대한 터치 위치의 이동을 수반하는 소정의 터치 조작을 검출하지 않은 경우에, 상기 멀티 터치 조작이 행해지는 위치들에 근거한 제1 위치를 기준으로 하여, 상기 멀티 터치 조작에 따라 상기 표시부에 표시된 표시 대상을 확대 또는 축소하도록 제어를 행하고,
    상기 터치 검출부가 상기 소정의 터치 조작을 검출하고, 상기 터치 검출부가, 상기 소정의 터치 조작이 행해진 후 상기 소정의 터치 조작의 적어도 1개의 터치가 유지된 채, 상기 멀티 터치 조작을 검출한 경우에, 상기 멀티 터치 조작이 행해지는 위치들에 근거하지 않는 제2 위치를 기준으로 하여, 상기 멀티 터치 조작에 따라 상기 표시부에 표시된 상기 표시 대상을 확대 또는 축소하도록 제어를 행하도록 구성된 표시 제어부를 구비한 표시 제어장치.
  2. 제 1항에 있어서,
    상기 제1 위치는, 상기 멀티 터치 조작이 행해지는 터치 위치들의 대체로 중앙 위치에 놓이는 표시 제어장치.
  3. 제 1항에 있어서,
    상기 제2 위치는, 상기 표시부에 표시된 상기 표시 대상의 표시 범위의 대체로 중앙 위치에 있는 표시 제어장치.
  4. 제 3항에 있어서,
    상기 표시 대상의 단부가 상기 표시부의 표시 범위의 단부에 가까운 경우에는, 상기 제2 위치는, 상기 표시 대상의 상기 표시 범위의 중심부에 근거하지 않고 상기 표시 대상의 상기 단부에 근거한 위치인 표시 제어장치.
  5. 제 1항에 있어서,
    상기 소정의 터치 조작은, 상기 표시 대상에 터치를 유지한 채 소정량 이상 터치 위치를 이동하는 조작인 표시 제어장치.
  6. 제 1항에 있어서,
    상기 소정의 터치 조작은, 1개소에 대한 터치 조작에 의해 행해지는 조작인 표시 제어장치.
  7. 제 1항에 있어서,
    상기 표시 제어부는, 상기 소정의 터치 조작에 따라, 상기 표시부의 표시 영역 내의 상기 표시 대상의 표시 범위를 변경하도록 구성된 표시 제어장치.
  8. 제 1항에 있어서,
    상기 표시 제어부는, 상기 멀티 터치 조작을 검출한 것에 따라, 확대 또는 축소하는 기준 위치를 표시하도록 구성된 표시 제어장치.
  9. 제 1항에 있어서,
    상기 표시 대상은 화상인 표시 제어장치.
  10. 제 1항에 있어서,
    상기 표시 대상은 문서, Web 페이지 및 지도 중 적어도 한 개인 표시 제어장치.
  11. 제 1항에 있어서,
    상기 표시 제어장치는 촬상장치인 표시 제어장치.
  12. 제 1항에 있어서,
    상기 표시 제어장치는 휴대전화 단말, 퍼스널컴퓨터 및 태블릿 단말 중 적어도 한 개인 표시 제어장치.
  13. 제 1항 내지 제 12항 중 어느 한 항에 있어서,
    제1 터치 조작으로 상기 소정의 터치 조작이 행해진 후, 어떤 개소도 터치되지 않고 있는 상태가 되고, 그후 제2 터치 조작이 상기 제1 터치 조작이 종료한 후 소정 기간 동안 행해지고, 상기 제2 터치 조작에 의한 멀티 터치 조작이 검출된 경우에, 상기 표시 제어부는, 상기 제2 터치 조작에 의한 상기 소정의 터치 조작이 검출되지 않았더라도, 상기 제2 터치 조작에 의한 멀티 터치 조작이 행해지는 복수의 터치 위치들에는 근거하지 않는 상기 제2 위치를 기준으로 하여 상기 표시 대상을 확대 또는 축소하도록 제어를 행하는 표시 제어장치.
  14. 표시부에 대한 터치 조작을 검출하는 단계와,
    상기 표시부에 대한 멀티 터치 조작이 검출되고, 상기 멀티 터치 조작의 검출 이전의 시간으로부터 상기 표시부 상에 유지된 상기 표시부에 대한 터치 위치의 이동을 수반하는 소정의 터치 조작이 검출되지 않은 경우에, 상기 멀티 터치 조작이 행해지는 위치들에 근거한 제1 위치를 기준으로 하여, 상기 멀티 터치 조작에 따라 상기 표시부에 표시된 표시 대상을 확대 또는 축소하도록 제어를 행하고,
    소정의 터치 조작이 검출되고, 상기 소정의 터치 조작이 행해진 후 상기 소정의 터치 조작의 적어도 1개의 터치가 유지된 채, 상기 표시부에 대한 상기 멀티 터치 조작이 검출된 경우에, 상기 멀티 터치 조작이 행해지는 위치들에 근거하지 않는 제2 위치를 기준으로 하여, 상기 멀티 터치 조작에 따라 상기 표시부에 표시된 상기 표시 대상을 확대 또는 축소하도록 제어를 행하는 단계를 포함하는 표시 제어장치의 제어방법.
  15. 표시부에 대한 터치 조작을 검출하도록 구성된 터치 검출부와,
    상기 터치 조작에 의한 상기 표시부에 대한 터치 위치의 이동을 수반하는 소정의 터치 조작이 검출된 후의 기간이 소정의 기간 이내가 아니고, 상기 표시부에 대한 멀티 터치 조작을 검출한 경우에, 상기 멀티 터치 조작이 행해지는 위치들에 근거한 제1 위치를 기준으로 하여, 상기 멀티 터치 조작에 따라 상기 표시부에 표시된 표시 대상을 확대 또는 축소하도록 제어를 행하고,
    상기 소정의 터치 조작이 검출된 후 상기 소정의 기간 이내에 상기 표시부에 대한 상기 멀티 터치 조작이 검출된 경우에, 상기 멀티 터치 조작이 행해지는 위치들에 근거하지 않는 제2 위치를 기준으로 하여, 상기 멀티 터치 조작에 따라 상기 표시부에 표시된 상기 표시 대상을 확대 또는 축소하도록 제어를 행하도록 구성된 표시 제어부를 구비한 표시 제어장치.
  16. 제 15항에 있어서,
    상기 제1 위치는, 상기 멀티 터치 조작을 행하는 위치들의 대체로 중앙 위치에 놓이고,
    상기 제2 위치는, 상기 표시부에 표시된 상기 표시 대상의 표시 범위의 대체로 중앙 위치에 있고,
    상기 소정의 터치 조작은, 상기 표시 대상에 터치가 유지된 채 소정량 이상 터치 위치를 이동하기 위한 1개소에의 터치 조작이고,
    상기 표시 제어부는, 상기 소정의 터치 조작에 따라, 상기 표시부의 표시 영역 내의 상기 표시 대상의 상기 표시 범위를 변경하도록 구성된 표시 제어장치.
  17. 표시부에 대한 터치 조작을 검출하는 단계와,
    터치 조작에 의한 상기 표시부에 대한 터치 위치의 이동을 수반하는 소정의 터치 조작이 검출된 후의 기간이 소정의 기간 이내가 아니고, 상기 표시부에 대한 멀티 터치 조작이 검출된 경우에, 상기 멀티 터치 조작이 행해지는 위치들에 근거한 제1 위치를 기준으로 하여, 상기 멀티 터치 조작에 따라 상기 표시부에 표시된 표시 대상을 확대 또는 축소하도록 제어를 행하고,
    상기 소정의 터치 조작을 검출한 후 상기 소정 기간 이내에 상기 표시부에 대한 상기 멀티 터치 조작이 검출된 경우에, 상기 멀티 터치 조작이 행해지는 위치들에 근거하지 않는 제2 위치를 기준으로 하여, 상기 멀티 터치 조작에 따라 상기 표시부에 표시된 상기 표시 대상을 확대 또는 축소하도록 제어를 행하는 단계를 포함하는 표시 제어장치의 제어방법.
  18. 컴퓨터를 청구항 1 내지 12 중 어느 한 항에 기재된 표시 제어장치의 표시 제어부로서 기능시키는 프로그램을 기억한 컴퓨터 판독가능한 기억매체.
  19. 컴퓨터를 청구항 15 또는 16에 기재된 표시 제어장치의 표시 제어부로서 기능시키는 프로그램을 기억한 컴퓨터 판독가능한 기억매체.
KR1020170001660A 2016-01-08 2017-01-05 표시 제어장치 및 그 제어방법 KR102133436B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016002996A JP6978826B2 (ja) 2016-01-08 2016-01-08 表示制御装置及びその制御方法、プログラム、並びに記憶媒体
JPJP-P-2016-002996 2016-01-08

Publications (2)

Publication Number Publication Date
KR20170083495A true KR20170083495A (ko) 2017-07-18
KR102133436B1 KR102133436B1 (ko) 2020-07-21

Family

ID=58463684

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170001660A KR102133436B1 (ko) 2016-01-08 2017-01-05 표시 제어장치 및 그 제어방법

Country Status (11)

Country Link
US (1) US10120496B2 (ko)
JP (1) JP6978826B2 (ko)
KR (1) KR102133436B1 (ko)
CN (1) CN106961545B (ko)
DE (1) DE102017100073A1 (ko)
GB (1) GB2547541B (ko)
MY (1) MY179189A (ko)
PH (1) PH12017000004A1 (ko)
RU (1) RU2665220C2 (ko)
SG (1) SG10201700019YA (ko)
TW (1) TWI627569B (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6786833B2 (ja) * 2016-03-22 2020-11-18 富士ゼロックス株式会社 情報処理装置
JP6995605B2 (ja) * 2017-12-18 2022-01-14 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム及び記憶媒体
JP2022035746A (ja) * 2020-08-21 2022-03-04 株式会社小松製作所 作業機械の障害物報知システムおよび作業機械の障害物報知方法
CN115567762A (zh) * 2021-07-01 2023-01-03 北京小米移动软件有限公司 变焦控制方法、装置和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002311820A (ja) * 2001-04-13 2002-10-25 Fujitsu Ten Ltd 情報処理装置
JP2013072994A (ja) * 2011-09-27 2013-04-22 Olympus Corp 顕微鏡システム
JP2013080513A (ja) * 2012-12-28 2013-05-02 Zenrin Datacom Co Ltd 地図表示装置

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100077431A1 (en) * 2008-09-25 2010-03-25 Microsoft Corporation User Interface having Zoom Functionality
US20100166404A1 (en) * 2008-12-31 2010-07-01 Lombardi Michael J Device and Method Using a Touch-Detecting Surface
JP2010176330A (ja) * 2009-01-28 2010-08-12 Sony Corp 情報処理装置、及び表示制御方法
KR101589501B1 (ko) * 2009-08-24 2016-01-28 삼성전자주식회사 터치 스크린을 이용한 줌 제어 방법 및 장치
KR101674713B1 (ko) * 2009-09-29 2016-11-09 레노보 이노베이션스 리미티드 (홍콩) 표시 장치, 제어 방법 및 기록 매체
CN102221954B (zh) * 2010-04-15 2014-01-29 中国移动通信集团公司 缩放显示装置、包括该装置的电子设备和缩放显示方法
CN102402369B (zh) * 2010-09-13 2017-11-24 联想(北京)有限公司 电子设备及其操作提示标识移动方法
JP5701569B2 (ja) * 2010-10-20 2015-04-15 株式会社ソニー・コンピュータエンタテインメント 画像表示装置、画像表示制御方法及びプログラム
JP2012108749A (ja) * 2010-11-18 2012-06-07 Fujifilm Corp 文書画像表示制御装置および携帯型端末装置ならびにそれらの動作制御方法およびその動作制御プログラム
JP5754124B2 (ja) * 2010-12-14 2015-07-29 セイコーエプソン株式会社 プロジェクターおよび制御方法
US8922639B2 (en) * 2011-09-27 2014-12-30 Olympus Corporation Microscope system
JP2013097411A (ja) * 2011-10-28 2013-05-20 Sanyo Electric Co Ltd 車両用ナビゲーション装置
CN103376999A (zh) * 2012-04-23 2013-10-30 华晶科技股份有限公司 手持式电子装置及其数位资讯的画面控制方法
JP5406333B2 (ja) * 2012-05-29 2014-02-05 京セラ株式会社 携帯端末、制御方法及びプログラム
JP5923395B2 (ja) * 2012-06-26 2016-05-24 京セラ株式会社 電子機器
JP5975794B2 (ja) * 2012-08-29 2016-08-23 キヤノン株式会社 表示制御装置、表示制御方法、プログラム及び記憶媒体
WO2014112029A1 (ja) * 2013-01-15 2014-07-24 日立マクセル株式会社 情報処理装置、情報処理方法、及び、プログラム
JP6112925B2 (ja) * 2013-03-15 2017-04-12 オリンパス株式会社 表示機器及び表示方法
JP5990134B2 (ja) * 2013-06-11 2016-09-07 株式会社ジャパンディスプレイ タッチ検出機能付き表示装置及び電子機器
CN104423853A (zh) * 2013-08-22 2015-03-18 中兴通讯股份有限公司 一种对象切换方法、装置以及触摸屏终端
JP5839009B2 (ja) 2013-09-10 2016-01-06 コニカミノルタ株式会社 表示装置、表示装置の制御方法、表示装置の制御プログラム、および表示システム
CN104111781B (zh) * 2014-07-03 2018-11-27 魅族科技(中国)有限公司 图像显示控制方法和终端
CN204374940U (zh) * 2014-09-30 2015-06-03 敦泰科技有限公司 一种电子设备、触控显示装置及驱动电路
US20170177204A1 (en) * 2015-12-18 2017-06-22 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Centering gesture to enhance pinch-to-zoom gesture on touchscreens

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002311820A (ja) * 2001-04-13 2002-10-25 Fujitsu Ten Ltd 情報処理装置
JP2013072994A (ja) * 2011-09-27 2013-04-22 Olympus Corp 顕微鏡システム
JP2013080513A (ja) * 2012-12-28 2013-05-02 Zenrin Datacom Co Ltd 地図表示装置

Also Published As

Publication number Publication date
CN106961545B (zh) 2020-07-07
JP6978826B2 (ja) 2021-12-08
JP2017123125A (ja) 2017-07-13
CN106961545A (zh) 2017-07-18
GB201700102D0 (en) 2017-02-22
TWI627569B (zh) 2018-06-21
TW201725491A (zh) 2017-07-16
GB2547541A (en) 2017-08-23
MY179189A (en) 2020-10-30
US20170199621A1 (en) 2017-07-13
GB2547541B (en) 2020-07-15
SG10201700019YA (en) 2017-08-30
RU2016151665A3 (ko) 2018-07-02
RU2016151665A (ru) 2018-07-02
DE102017100073A1 (de) 2017-07-13
KR102133436B1 (ko) 2020-07-21
US10120496B2 (en) 2018-11-06
RU2665220C2 (ru) 2018-08-28
PH12017000004A1 (en) 2018-07-16

Similar Documents

Publication Publication Date Title
US10222903B2 (en) Display control apparatus and control method thereof
JP5306266B2 (ja) 撮像装置及びその制御方法
US9438789B2 (en) Display control apparatus and display control method
EP2701051A1 (en) Electronic apparatus and control method thereof
JP6590666B2 (ja) 電子機器およびその制御方法
JP2018129765A (ja) 撮像装置及びその制御方法
US10120496B2 (en) Display control apparatus and control method thereof
US20150055007A1 (en) Display control apparatus and control method for display control apparatus
US11184528B2 (en) Electronic apparatus, control method therefor, and non-transitory computer readable medium
JP6198459B2 (ja) 表示制御装置、表示制御装置の制御方法、プログラム及び記憶媒体
JP2018107618A (ja) 表示制御装置及び方法
JP5575290B2 (ja) 撮像装置及びその制御方法
US11169684B2 (en) Display control apparatuses, control methods therefor, and computer readable storage medium
JP6257255B2 (ja) 表示制御装置及び表示制御装置の制御方法
JP7129244B2 (ja) 電子機器、電子機器の制御方法、プログラム、記憶媒体
JP2021028785A (ja) 電子機器および電子機器の制御方法
US9088762B2 (en) Image capturing apparatus and control method thereof
US20160364073A1 (en) Display controller that controls designation of position on a display screen, method of controlling the same, and storage medium
JP6301002B2 (ja) 表示制御装置及び表示制御装置の制御方法
GB2624576A (en) Electronic device, electronic device control method, program, and storage medium
JP2019197557A (ja) 表示制御装置及び表示制御装置の制御方法
JP2024037370A (ja) 撮像装置、撮像装置の制御方法、プログラム
JP2018092663A (ja) 表示制御装置及び表示制御装置の制御方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant