KR20150027502A - 이미지 촬영 방법 및 그 전자 장치 - Google Patents

이미지 촬영 방법 및 그 전자 장치 Download PDF

Info

Publication number
KR20150027502A
KR20150027502A KR20130105938A KR20130105938A KR20150027502A KR 20150027502 A KR20150027502 A KR 20150027502A KR 20130105938 A KR20130105938 A KR 20130105938A KR 20130105938 A KR20130105938 A KR 20130105938A KR 20150027502 A KR20150027502 A KR 20150027502A
Authority
KR
South Korea
Prior art keywords
touch
focusing
image sensor
electronic device
image
Prior art date
Application number
KR20130105938A
Other languages
English (en)
Other versions
KR102158293B1 (ko
Inventor
장우석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130105938A priority Critical patent/KR102158293B1/ko
Publication of KR20150027502A publication Critical patent/KR20150027502A/ko
Application granted granted Critical
Publication of KR102158293B1 publication Critical patent/KR102158293B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)

Abstract

본 발명의 일 실시 예에 따르면, 터치 스크린을 포함하는 전자 장치의 동작 방법에 있어서, 이미지 센서를 통하여 수신한 이미지를 디스플레이하는 과정과, 상기 이미지의 제1영역에 대한 제1터치 이벤트를 감지하는 과정과, 상기 제1영역에 대한 자동 포커싱 화면 및 상기 이미지 센서의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이하는 과정과, 상기 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하는 과정 및 상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제1영역에 대한 상기 이미지 센서의 렌즈의 포커싱 레벨을 조절하는 과정을 포함하는 방법을 제공할 수 있다.
또한, 다른 실시 예가 가능하다.

Description

이미지 촬영 방법 및 그 전자 장치{METHOD FOR CAPTURING IMAGE AND ELECTRONIC DEVICE THEREOF}
본 발명은 이미지 촬영 방법 및 그 전자 장치에 관한 것이다.
최근 들어 멀티미디어 기술이 발전하면서 다양한 기능을 갖는 전자 장치들이 등장하고 있다. 이러한 전자 장치들은 하나 또는 그 이상의 기능을 복합적으로 수행하는 컨버젼스 기능을 갖는 것이 일반적이다.
더욱이 전자 장치들로는 소위 '스마트 폰'이라 대별되는 이동 단말기가 주류를 이루고 있다. 특히 이러한 이동 단말기는 대화면 터치 방식의 디스플레이 모듈을 구비하고 있으며, 상대방과의 통신이라는 기본적인 기능 이외에 고화소 카메라 모듈을 구비하고 있어 정지 영상 및 동영상 촬영이 가능하다. 또한 음악, 동영상 등 멀티미디어 콘텐츠를 재생할 수 있고, 네트워크 망에 접속하여 웹 서핑을 수행할 수도 있다.
이러한 전자 장치는 점차 고성능 프로세서를 구비함으로써 다양한 컨버젼스 기능을 좀더 빠르게 수행하도록 진보되고 있어, 상대방과의 통신이라는 주된 기능은 오히려 부가 기능으로 여겨질 정도로 눈부신 발전을 거듭하고 있다.
본 발명의 일 실시 예에 따르면, 특정 상황에 대응하여 작동되는 이미지 촬영 방법 및 그 전자 장치를 제공할 수 있다.
본 발명의 다른 실시 예에 따르면, 수준 높은 결과물을 획득할 수 있는 이미지 촬영 방법 및 그 전자 장치를 제공할 수 있다.
본 발명의 또 다른 실시 예에 따르면, 포커싱 레벨을 직관적으로 운용할 수 있는 이미지 촬영 방법 및 그 전자 장치를 제공할 수 있다.
본 발명의 일 실시 예에 따르면, 터치 스크린을 포함하는 전자 장치의 동작 방법에 있어서, 이미지 센서를 통하여 수신한 이미지를 디스플레이하는 과정과, 상기 이미지의 제1영역에 대한 제1터치 이벤트를 감지하는 과정과, 상기 제1영역에 대한 자동 포커싱 화면 및 상기 이미지 센서의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이하는 과정과, 상기 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하는 과정 및 상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제1영역에 대한 상기 이미지 센서의 렌즈의 포커싱 레벨을 조절하는 과정을 포함하는 방법을 제공할 수 있다.
본 실시 예에 따르면, 상기 이미지 센서의 렌즈의 이동 거리와 대응하는 상기 포커싱 레벨을 단계별로 대응시켜 저장하는 과정을 추가로 포함할 수 있다.
본 실시 예에 따르면, 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 포커싱 레벨이 기저장된 단계별로 이동하거나 또는 기저장된 특정 단계로 이동할 수 있다.
본 실시 예에 따르면, 상기 자동 포커싱 화면은 상기 이미지의 디스플레이 화면보다 작고, 상기 사용자 인터페이스 오브젝트는 상기 이미지 디스플레이 화면상에 디스플레이될 수 있다.
본 실시 예에 따르면, 상기 제1터치 이벤트는 상기 터치 스크린에서 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.
본 실시 예에 따르면, 상기 제1영역에 대한 상기 자동 포커싱 화면은 상기 제1영역에 대한 상기 이미지 센서의 렌즈의 최적의 포커싱을 적용할 수 있다.
본 실시 예에 따르면, 상기 제2터치 이벤트는 상기 사용자 인터페이스 오브젝트에 대한 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.
본 실시 예에 따르면, 상기 이미지 센서는 closed loop 방식을 적용할 수 있다.
본 발명의 다른 실시 예에 따르면, 전자 장치에 있어서, 터치 스크린과, 적어도 하나의 이미지 센서와, 메모리 및 적어도 하나의 프로세서를 포함하고, 상기 프로세서는 상기 이미지 센서를 통하여 수신한 이미지를 디스플레이하고, 상기 이미지의 제1영역에 대한 제1터치 이벤트를 감지하고, 상기 제1영역에 대한 자동 포커싱 화면 및 상기 이미지 센서의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이하며, 상기 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하고, 상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제1영역에 대한 상기 이미지 센서의 렌즈의 포커싱 레벨을 조절하는 전자 장치를 제공할 수 있다.
본 실시 예에 따르면, 상기 프로세서는 상기 이미지 센서의 렌즈의 이동 거리와 대응하는 상기 포커싱 레벨을 단계별로 대응시켜 저장할 수 있다.
본 실시 예에 따르면, 상기 프로세서는 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 포커싱 레벨을 기저장된 단계별로 이동하거나 또는 기저장된 특정 단계로 이동할 수 있다.
본 실시 예에 따르면, 상기 프로세서는 상기 자동 포커싱 화면을 상기 이미지의 디스플레이 화면보다 작게 하고, 상기 사용자 인터페이스 오브젝트를 상기 이미지 디스플레이 화면상에 디스플레이하도록 제어할 수 있다.
본 실시 예에 따르면, 상기 프로세서는 상기 터치 스크린에서 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 상기 제1터치 이벤트로 감지할 수 있다.
본 실시 예에 따르면, 상기 프로세서는 상기 제1영역에 대한 상기 자동 포커싱 화면을 상기 제1영역에 대한 상기 이미지 센서의 렌즈의 최적의 포커싱을 적용할 수 있다.
본 실시 예에 따르면, 상기 프로세서는 상기 사용자 인터페이스 오브젝트에 대한 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 상기 제2터치 이벤트로 감지할 수 있다.
본 실시 예에 따르면, 상기 이미지 센서는 closed loop 방식을 적용할 수 있다.
상술한 다양한 실시 예들에 따르면, 특정 상황에 대응하여 수준 높은 결과물을 획득할 수 있는 이미지 촬영 방법에 대한 사용자 인터페이스를 제공할 수 있다.
도 1a는 본 발명의 일 실시 예에 따른 전자 장치의 전면 사시도;
도 1b는 본 발명의 일 실시 예에 따른 전자 장치의 후면 사시도;
도 2a는 본 발명의 일 실시 예에 따른 전자 장치의 블록 구성도;
도 2b는 본 발명의 일 실시 예에 따른 프로세서의 블록 구성도;
도 3a내지 도 3c는 일반 촬영에서의 포커싱 레벨을 조절하는 방법을 설명하는 도면;
도 4a 및 도 4b는 야간 촬영에서의 포커싱 레벨을 조절하는 방법을 설명하는 도면;
도 5는 본 발명의 일 실시 예에 따른 전자 장치의 동작 방법에 대한 흐름도;
도 6은 본 발명의 다른 실시 예에 따른 전자 장치의 동작 방법에 대한 흐름도;
도 7은 본 발명의 또 다른 실시 예에 따른 전자 장치의 동작 방법에 대한 흐름도;
도 8은 본 발명의 다양한 실시 예에 따른 전자 장치의 동작 방법에 대한 흐름도; 및
도 9는 본 발명의 다양한 실시 예에 따른 전자 장치의 동작 방법에 대한 흐름도.
이하 본 발명의 다양한 실시 예들을 첨부된 도면을 참조하여 상세히 설명한다. 본 발명의 실시 예들을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 실시 예들의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명의 실시 예들의 전반에 걸친 내용을 토대로 내려져야 할 것이다.
본 발명의 일 실시 예를 설명함에 있어, 하나 또는 그 이상의 카메라 모듈을 포함하는 전자 장치에 관하여 설명할 것이다. 전자 장치는 카메라 모듈에 의해 촬영된 이미지 정보를 표시할 수 있는 표시부를 포함할 수 있다.
본 발명의 실시 예들을 설명함에 있어, 표시부로써 터치 스크린을 포함하고, 하나 또는 그 이상의 카메라 모듈이 적용될 수 있는 전자 장치를 도시하고 이에 대하여 설명하였으나 이에 국한되지는 않는다. 예컨대, 전자 장치로는 터치 스크린 및 카메라 모듈을 포함하는 다양한 기기, 즉, PDA(Personal Digital Assistant), 랩탑 컴퓨터(Laptop Computer), 모바일 폰(Mobile Phone), 스마트 폰(Smart Phone), 넷북(Netbook), TV(Television), 휴대 인터넷 장치(MID: Mobile Internet Device), 울트라 모바일 PC(UMPC: Ultra Mobile PC), 태블릿 PC(Tablet Personal Computer), 손목시계, 카메라 장치, 네비게이션, MP3 및 웨어러블(wearable) 장치 등 다양한 장치에 적용 가능하다.
도 1a는 본 발명의 일 실시 예에 따른 전자 장치(100)의 전면 사시도이고, 도 1b는 본 발명의 일 실시 예에 따른 전자 장치(100)의 후면 사시도이다.
도 1a 및 도 1b를 참고하면, 전자 장치(100)는 전면(101)에 터치 스크린(190)이 설치될 수 있다. 터치 스크린(190)은 전자 장치(100)로부터 전달받은 전기적 신호를 텍스트, 그래픽, 비디오 등의 영상으로 표시할 수 있다. 또한, 터치 스크린(190)은 터치 패널을 적용하여 데이터 입출력을 동시에 수행할 수 있다. 이러한 터치 스크린(190)은 손가락이나 스타일러스(Stylus)와 같은 입력 수단에 의해 데이터를 수신할 수 있다.
일 실시 예에 따르면, 터치 스크린(190)은 용량성, 저항성, 적외선 및 표면 음향파 기술뿐만 아니라 기타 근접 센서 배열 또는 기타 요소들을 포함하는 임의의 멀티 터치 감지 기술을 적용할 수 있다. 터치 스크린(190)은 손가락 또는 스타일러스 등의 접촉에 따른 물리량(예컨대, 정전 용량, 저항 등)의 변화를 통해 터치를 인식하고, 플리킹(flicking), 터치 앤 드래그(touch and drag), 탭 앤 홀드(tab and hold), 다중 탭(multi tab) 등의 동작을 감지할 수 있다. 더하여, 터치 스크린(190)은 손가락 또는 스타일러스와 같은 입력 수단이 터치 스크린(190)과 일정 거리 내에 근접함을 감지하는 호버링(Hovering) 입력(비접촉 터치 또는 근접 터치라고도 함)을 인식할 수 있다.
터치 스크린(190)의 상측에는 음성을 수신하기 위한 이어 피스(Ear Piece)(102)가 설치될 수 있으며, 이어 피스(102)의 주변에는 근접 센서 또는 조도 센서와 같은 전자 장치(100)의 사용 편의성을 위한 다수의 센서들(103)이 설치될 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 피사체를 촬영하기 위한 제1카메라 모듈(C1) 및 제2카메라 모듈(C2)을 포함할 수 있다. 제1카메라 모듈(C1)은 전자 장치(100)의 전면(101)에 배치되어 셀프 카메라 기능을 수행하거나, 화상 통화를 위하여 사용될 수 있다. 제2카메라 모듈(C2)은 피사체를 용이하게 촬영하기 위해 전자 장치(100)의 후면(106)에 배치될 수 있다.
일 실시 예에 따르면, 상술한 카메라 모듈들(C1, C2)은 정지 영상 또는 동영상을 촬영할 수 있으며, 이미지 센서를 통하여 수신된 이미지 정보를 터치 스크린(190)을 통하여 출력할 수 있다. 이러한 카메라 모듈들(C1, C2)은 피사체에 대한 자동 포커싱(AF, Auto Focusing) 기능을 수행할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 피사체를 연속적으로 포커싱(Focusing) 하여 사용자가 원하는 시점에 촬영 가능하도록 CAF(Continus Auto Focus) 기능을 수행할 수 있다.
다른 실시 예에 따르면, 전자 장치(100)는 터치 스크린(190)에 표시되는 촬영 이미지의 일정 영역에 대한 터치를 감지하는 경우, 터치된 일정 영역의 이미지에 대한 최적의 포커싱을 수행하는 TAF(Touch Auto Focus) 기능을 수행할 수도 있다.
다양한 실시 예에 따르면, 전자 장치(100)는 두 개의 카메라 모듈을 포함하고 있으나 이에 국한되지는 않는다. 예컨대, 전자 장치(100)는 하나 또는 그 이상의 카메라 모듈을 구비할 수 있으며, 상술한 카메라 기능 이외에도 다양한 촬영 기법이 적용될 수 있을 것이다.
일 실시 예에 따르면, 전자 장치(100)는 터치 스크린(190)의 하측에 위치하며 소리를 입력받는 마이크로폰 장치(104) 및 키 버튼들이 배치되는 키패드 장치(105)를 더 포함할 수 있다. 그러나 이에 국한되지는 않으며, 전자 장치(100)는 공지의 여타 부가 기능을 구현하기 위한 다양한 부가 장치들이 더 설치될 수 있을 것이다.
도 2a는 본 발명의 일 실시 예에 따른 전자 장치(100)의 블록 구성도이다.
도 2a를 참고하면, 전자 장치(100)는 PDA(Personal Digital Assistant), 랩탑 컴퓨터(Laptop Computer), 모바일 폰(Mobile Phone), 스마트 폰(Smart Phone), 넷북(Netbook), 핸드헬드 컴퓨터(Handheld Computer), 휴대 인터넷 장치(MID: Mobile Internet Device), 미디어 플레이어(Media Player), 울트라 모바일 PC(UMPC: Ultra Mobile PC), 태블릿 PC(Tablet Personal Computer), 노트 PC, 손목시계, 네비게이션, MP3, 카메라 장치와 같은 장치일 수 있다. 또한, 전자 장치(100)는 이러한 장치들 중 두 가지 이상의 기능을 결합한 장치를 포함하는 임의의 장치일 수도 있다.
일 실시 예에 따르면, 전자 장치(100)는 메모리(110), 프로세서 유닛(Processor Unit)(120), 카메라 장치(130), 센서 장치(140), 무선 통신 장치(150), 오디오 장치(160), 외부 포트 장치(170), 입출력 제어부(180), 터치 스크린(190) 및 입력 장치(200)를 포함할 수 있다. 메모리(110) 및 외부 포트 장치(170)는 다수 개 구성될 수 있다.
각 구성요소에 대해 살펴보면 다음과 같다.
프로세서 유닛(120)은 메모리 인터페이스(121), 적어도 하나의 프로세서(processor)(122) 및 주변 장치 인터페이스(123)를 포함할 수 있다. 여기서, 프로세서 유닛(120)에 포함되는 메모리 인터페이스(121), 적어도 하나의 프로세서(122) 및 주변 장치 인터페이스(123)는 적어도 하나의 집적화된 회로로 집적화되거나 별개의 구성요소로 구현될 수 있다.
메모리 인터페이스(121)는 프로세서(122) 또는 주변 장치 인터페이스(123)와 같은 구성요소의 메모리(110) 접근을 제어할 수 있다.
주변 장치 인터페이스(123)는 전자 장치(100)의 입출력 주변 장치와 프로세서(122) 및 메모리 인터페이스(121)의 연결을 제어할 수 있다.
프로세서(122)는 적어도 하나의 소프트웨어 프로그램을 이용하여 전자 장치(100)가 다양한 멀티미디어 서비스를 제공하도록 제어할 수 있다. 프로세서(122)는 메모리(110)에 저장되어 있는 적어도 하나의 프로그램을 실행하여 해당 프로그램에 대응하는 서비스를 제공할 수 있다.
프로세서(122)는 여러 가지의 소프트웨어 프로그램을 실행하여 전자 장치(100)를 위한 여러 기능을 수행하며 음성 통신, 영상 통신 및 데이터 통신을 위한 처리 및 제어를 수행할 수 있다. 더하여, 프로세서(122)는 메모리(110)에 저장된 소프트웨어 모듈들과 연동하여 본 발명의 실시 예들의 방법을 수행할 수 있다.
프로세서(122)는 하나 이상의 데이터 프로세서, 이미지 프로세서, 또는 코덱(CODEC)을 포함할 수 있다. 더욱이, 전자 장치(100)는 데이터 프로세서, 이미지 프로세서 또는 코덱을 별도로 구성할 수 있다.
전자 장치(100)의 다양한 구성요소들은 하나 이상의 통신 버스(참조번호 미기재) 또는 전기적 연결 수단(참조번호 미기재)을 통해서 연결될 수 있다.
카메라 장치(130)는 사진, 비디오 클립, 레코딩 등의 카메라 기능을 수행할 수 있다. 카메라 장치(130)는 CCD(Charged Coupled Device) 또는 CMOS(Complementary Metal-Oxide Semiconductor) 등을 포함할 수 있다. 더하여, 카메라 장치(130)는 프로세서(122)가 실행하는 카메라 프로그램에 따라 하드웨어적인 구성의 변경, 예컨대 렌즈 이동, 조리개의 수 등을 조절할 수 있다. 이러한 카메라 장치(130)는 피드백(feedback) 원리를 적용하는 폐회로(closed loop) 방식으로 구현될 수 있다.
일 실시 예에 따르면, 카메라 장치(130)는 피사체에 대한 촬영을 통해 획득한 수집 영상을 프로세서 유닛(120)으로 제공할 수 있다. 카메라 장치(130)는 광학적 신호를 전기적 신호로 변환하는 이미지 센서, 아날로그 영상 신호를 디지털 영상 신호로 변환하는 영상 처리 장치(Image Signal Processor) 및 영상 처리 장치에서 출력되는 영상 신호를 터치 스크린(190)에 표시할 수 있도록 영상 처리하는 신호 처리 장치(Digital Signal Processor) 등을 포함할 수 있다.
센서 장치(140)는 근접 센서, 홀(Hall) 센서, 조도 센서, 모션 센서 등을 포함할 수 있다. 예컨대, 근접 센서는 전자 장치(100)에 근접하는 물체를 감지할 수 있고, 홀 센서는 금속체의 자력을 감지할 수 있다. 또한, 조도 센서는 전자 장치(100) 주변의 빛을 감지하며, 모션 센서는 전자 장치(100)의 움직임을 감지하는 가속도 센서 또는 자이로 센서를 포함할 수 있다. 그러나 이에 국한되지는 않으며, 센서 장치(140)는 공지의 여타 부가 기능을 구현하기 위한 다양한 센서들을 더 포함할 수 있을 것이다.
무선 통신 장치(150)는 무선 통신을 가능하게 하고, 무선 주파수 송ㆍ수신기 또는 광(예컨대, 적외선) 송ㆍ수신기를 포함할 수 있다. 미 도시하였으나, 무선 통신 장치(150)는 RF IC 유닛(Radio Frequency IC unit)과 기저대역 처리부를 포함할 수 있다. RF IC 유닛은 전자파를 송ㆍ수신할 수 있으며, 기저대역 처리부로부터의 기저대역 신호를 전자파로 변환하여 안테나를 통해 송신할 수 있다.
RF IC 유닛은 RF 트랜시버(transceiver), 증폭기(amplifier), 튜너(tunor), 오실레이터(oscillator), 디지털 신호 처리기(digital signal processor), CODEC 칩셋(COding DECoding chip set), 가입자 식별 모듈(SIM, Subscriber Identity Module) 카드 등을 포함할 수 있다.
무선 통신 장치(150)는 통신 네트워크에 따라 GSM(Global System for Mobile Communication) 네트워크, EDGE(Enhanced Data GSM Environment) 네트워크, CDMA(Code Division Multiple Access) 네트워크, W-CDMA(Wideband Code Division Multiple Access) 네트워크, LTE(Long Term Evolution) 네트워크, OFDMA(Orthogonal Frequency Division Multiple Access) 네트워크, Wi-Fi(Wireless Fidelity) 네트워크, WiMax 네트워크, NFC(Near Field Communication) 네트워크, 적외선 통신(Infra Red Communication) 네트워크, Bluetooth 네트워크 중 적어도 하나를 통해 동작하도록 구현될 수 있다. 그러나 이에 국한되지는 않으며, 무선 통신 장치(150)는 이메일(email), 인스턴트 메시징(instant messaging) 또는 단문 문자 서비스(SMS, Short Message Service)용 프로토콜을 이용한 여러 가지의 통신 방식이 적용될 수 있다.
오디오 장치(160)는 스피커(161) 및 마이크로폰(162)에 연결되어 음성 인식, 음성 복제, 디지털 레코딩 또는 통화 기능 등의 오디오 입력 및 출력 기능을 수행할 수 있다. 오디오 장치(160)는 사용자와 전자 장치(100) 사이의 오디오 인터페이스를 제공할 수 있으며, 프로세서(122)로부터 수신한 데이터 신호를 전기 신호로 변환하며 변환한 전기 신호를 스피커(161)를 통해 출력시킬 수 있다.
스피커(161)는 전기 신호를 가청 주파수 대역으로 변환하여 출력할 수 있고, 전자 장치(100)의 전방 또는 후방에 배치될 수 있다. 스피커(161)는 하나의 진동 필름에 적어도 하나의 압전체를 부착시킨 플렉서블한 필름 스피커를 포함할 수 있다.
마이크로폰(162)은 인물이나 기타 음원들로부터 전달된 음파를 전기 신호로 변환할 수 있다. 오디오 장치(160)는 마이크로폰(162)으로부터 전기 신호를 수신하고, 수신한 전기 신호를 오디오 데이터 신호로 변환하며 변환한 오디오 데이터 신호를 프로세서(122)로 전송할 수 있다. 오디오 장치(160)는 전자 장치(100)에 탈부착 가능한 이어폰, 이어셋, 헤드폰 또는 헤드셋을 포함할 수 있다.
외부 포트 장치(170)는 전자 장치(100)를 상대 전자 장치와 직접 연결하거나, 네트워크(예컨대, 인터넷, 인트라넷, 무선 LAN 등)를 통하여 상대 전자 장치와 간접적으로 연결할 수 있다. 외부 포트 장치(170)는 USB(Universal Serial Bus) 포트 또는 FIREWIRE 포트 등을 포함할 수 있다.
입출력 제어부(180)는 터치 스크린(190) 및 입력 장치(200) 등의 입출력 장치와 주변 장치 인터페이스(123) 사이에 인터페이스를 제공할 수 있다. 입출력 제어부(180)는 터치 스크린 제어기 및 기타 입력 장치 제어기를 포함할 수 있다.
터치 스크린(190)은 전자 장치(100)와 사용자 간의 입력 및 출력 인터페이스를 제공할 수 있다. 터치 스크린(190)은 터치 감지 기술을 적용하여 사용자의 터치 정보를 프로세서(122)로 전달하고, 프로세서(122)로부터 제공되는 시각 정보, 텍스트, 그래픽 또는 비디오 등을 사용자에게 보여줄 수 있다.
터치 스크린(190)은 전자 장치(100)의 상태 정보, 사용자가 입력하는 문자, 동화상(moving picture) 및 정화상(still picture)을 표시할 수 있다. 더하여, 터치 스크린(190)은 프로세서(122)에 의해 구동되는 어플리케이션 관련 정보를 표시할 수 있다.
터치 스크린(190)은 용량성, 저항성, 적외선 및 표면 음향파 기술뿐만 아니라 기타 근접 센서 배열 또는 기타 요소들을 포함하는 임의의 멀티 터치 감지 기술을 적용할 수 있다. 이러한 터치 스크린(190)은 액정 디스플레이(Liquid Crystal Display, LCD), 유기 발광 다이오드(Organic Light-Emitting Diode, OLED), AMOLED(Active Mode Organic Light Emitting Diode), 박막 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display, TFT-LCD), 플렉서블 디스플레이(Flexible Display), 3차원 디스플레이(3D display) 중 적어도 하나를 적용할 수 있다.
터치 스크린(190)은 손가락 또는 스타일러스 등의 접촉에 따른 물리량(예컨대, 정전 용량, 저항 등)의 변화를 통해 터치를 인식하고, 플리킹, 터치 앤 드래그, 탭 앤 홀드, 다중 탭 등의 동작을 감지할 수 있다. 또한, 터치 스크린(190)은 손가락 또는 스타일러스와 같은 입력 수단이 터치 스크린(190)과 일정 거리 내에 근접함을 감지하는 호버링 입력(비접촉 터치 또는 근접 터치라고도 함)을 인식하도록 구현될 수 있다.
입력 장치(200)는 사용자의 선택에 의해 발생하는 입력 데이터를 입출력 제어부(180)를 통해 프로세서(122)로 제공할 수 있다. 입력 장치(200)는 적어도 하나의 하드웨어 버튼을 포함하는 키패드와 터치 정보를 감지하는 터치 패드를 포함할 수 있다.
입력 장치(200)는 볼륨 제어를 위한 업/다운 버튼을 포함할 수 있으며, 이 밖에도 입력 장치(200)는 해당 기능이 부여된 푸쉬 버튼(push botton), 로커 버튼(locker button), 로커(locker) 스위치, 섬 휠(thumb-wheel), 다이얼(dial), 스틱(stick), 마우스(mouse), 트랙볼(track-ball) 또는 스타일러스 등의 포인터 장치 중 적어도 하나를 포함할 수 있다.
메모리(110)는 하나 이상의 자기 디스크 저장 장치와 같은 고속 랜덤 액세스 메모리 또는 비휘발성 메모리, 하나 이상의 광 저장 장치 또는 플래시 메모리(예컨대, NAND, NOR)를 포함할 수 있다.
메모리(110)는 소프트웨어를 저장하는데, 이러한 소프트웨어는 운영 체제 모듈(111), 통신 모듈(112), 그래픽 모듈(113), 사용자 인터페이스 모듈(114), 카메라 프로그램(115), 어플리케이션 모듈(116), 터치 인식 운용 프로그램(117) 및 포커싱 운용 프로그램(118)을 포함할 수 있다. 모듈(module)이란 용어는 명령어들의 집합, 명령어 세트(instruction set) 또는 프로그램(program)으로 표현하기도 한다.
운영 체제 모듈(111)은 WINDOWS, LINUX, 다윈(Darwin), RTXC, UNIX, OS X, 안드로이드(Android) 또는 VxWorks와 같은 내장 운영 체제를 포함할 수 있으며, 일반적인 시스템 작동(system operation)을 제어하는 여러 가지의 소프트웨어 구성요소를 포함할 수 있다. 이러한 일반적인 시스템 작동의 제어는 메모리 제어 및 관리, 저장 하드웨어(장치) 제어 및 관리, 전력 제어 및 관리 등을 포함할 수 있다. 더하여, 운영 체제 모듈(111)은 여러 가지의 하드웨어(장치)와 소프트웨어 구성요소(모듈) 사이의 통신을 원활하게 하는 기능을 수행할 수 있다.
통신 모듈(112)은 무선 통신 장치(150) 또는 외부 포트 장치(170)를 통해 컴퓨터, 서버 및 전자 기기 등의 상대 전자 장치와 통신을 가능하게 할 수 있다.
그래픽 모듈(113)은 터치 스크린(190)에 그래픽을 제공하고 표시하기 위한 여러 가지 소프트웨어 구성요소를 포함할 수 있다. 그래픽(graphics)이란 용어는 텍스트(text), 웹 페이지(web page), 아이콘(icon), 디지털 이미지(digital image), 비디오(video) 및 애니메이션(animation) 등을 의미할 수 있다.
사용자 인터페이스 모듈(114)은 사용자 인터페이스에 관련한 여러 가지 소프트웨어 구성요소를 포함할 수 있다. 사용자 인터페이스 모듈(114)은 프로세서(122)에 의해 구동되는 어플리케이션 관련 정보를 터치 스크린(190)에 표시하도록 제어할 수 있다. 또한, 사용자 인터페이스 모듈(114)은 사용자 인터페이스의 상태가 어떻게 변경되는지 또는 사용자 인터페이스 상태의 변경이 어떤 조건에서 이루어지는지 등에 대한 내용을 포함할 수 있다.
카메라 프로그램(115)은 카메라 기능을 수행하기 위한 여러 가지 소프트웨어 구성요소를 포함할 수 있다.
어플리케이션 모듈(116)은 전자 장치(100)에 설치된 적어도 하나의 어플리케이션에 대한 소프트웨어 구성요소를 포함할 수 있다. 이러한 어플리케이션은 브라우저(browser), 이메일(e-mail), 폰북(Phone Book), 게임(Game), 단문 메시지 서비스(Short Message Service), 멀티미디어 메시지 서비스(Multimedia Messaging Service), SNS(Social Networking Service), 즉석 메시지(instant message), 모닝콜(morning call), MP3(MPEG Layer 3), 일정관리(Scheduler), 그림판, 카메라(Camera), 워드 프로세싱(word processing), 키보드 에뮬레이션(keyboard emulation), 음악 플레이어(music player), 어드레스 북(address book), 접촉 리스트(touch list), 위젯(wideget), 디지털 저작권 관리(DRM, Digital Right Management), 음성 인식(voice recognition), 음성 복제, 위치 결정 기능(position determining function), 위치 기반 서비스(location based service) 등을 포함할 수 있다. 어플리케이션(application)이란 용어는 응용프로그램으로 표현하기도 한다.
터치 인식 운용 프로그램(117)은 터치 스크린(190)에서 감지하는 터치 정보(예컨대, 터치 및 드래그 등)를 인식하기 위한 소프트웨어 구성요소를 포함할 수 있다.
포커싱 운용 프로그램(118)은 오토 포커싱 또는 수동 포커싱을 제어하기 위한 관련 프로세스 및 명령어들을 포함할 수 있다. 포커싱 운용 프로그램(118)은 이미지 센서의 렌즈의 이동 거리와 대응하는 포커싱 레벨을 단계별로 대응시켜 저장할 수 있다.
프로세서 유닛(120)은 상술한 모듈 이외에 추가적인 모듈(명령어들)을 더 포함할 수 있다.
전자 장치(100)의 다양한 기능들은 하나 이상의 프로세싱(processing) 또는 어플리케이션 특정 집적 회로(ASIC, Application Specific Integrated Circuit)를 포함하는 하드웨어 또는 소프트웨어로 실행될 수 있다.
미 도시하였으나, 전자 장치(100)는 전자 장치(100)에 포함된 여러 가지 구성요소에 전력을 공급하는 전력 시스템을 포함할 수 있다. 전력 시스템은 전원(power source)(교류 전원이나 배터리), 전력 오류 검출 회로, 전력 컨버터(converter), 전력 인버터(inverter), 충전 장치 또는 전력 상태 표시 장치(발광 다이오드)를 포함할 수 있다. 더하여 전자 장치(100)는 전력의 생성, 관리 및 분배 기능을 수행하는 전력 관리 및 제어 장치를 포함할 수 있다.
본 실시 예에서는 전자 장치(100)의 구성요소를 도시하고 설명하였으나 이에 국한되지는 않는다. 예컨대, 전자 장치(100)는 본 도면에서 도시한 것보다 많은 개수의 구성요소를 가지거나, 또는 더 적은 개수의 구성요소를 가질 수 있다.
도 2b는 본 발명의 일 실시 예에 따른 프로세서(122)의 블록 구성도이다.
도 2b를 참고하면, 프로세서(122)는 어플리케이션 구동부(210), 터치 인식 제어부(220), 포커싱 제어부(230) 및 표시 제어부(240)를 포함할 수 있다.
일 실시 예에 따르면, 프로세서(122)의 구성요소들은 별개의 모듈들로 이루어질 수 있지만, 다른 실시 예에서는 하나의 모듈 내에서 소프트웨어의 구성요소들로서 포함될 수도 있다.
어플리케이션 구동부(210)는 메모리(110)에 저장된 적어도 하나의 어플리케이션 모듈(116)을 실행하여 해당 어플리케이션에 대응하는 서비스를 제공할 수 있다.
일 실시 예에 따르면, 어플리케이션 구동부(210)는 카메라 프로그램(115)을 로딩(loading)하여 카메라 기능을 조작하기 위한 사용자 인터페이스를 터치 스크린(190)에 그래픽으로 표시하도록 제어할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 특정 어플리케이션을 실행하거나 또는 특정 키의 입력 등과 같은 카메라 촬영 모드 진입 이벤트에 따라 카메라 촬영 모드로 진입할 수 있다. 카메라 촬영 모드로 진입하는 경우, 전자 장치(100)는 도 3a에 도시한 바와 같이 이미지 센서를 통하여 수신한 배경이미지(300)를 터치 스크린(190)에 출력할 수 있다. 더하여, 터치 스크린(190)에 출력되는 배경이미지(300)를 촬영하기 위한 촬영 버튼(310)을 표시할 수 있을 것이다. 촬영 버튼(310)은 손가락(F) 또는 터치 펜과 같은 입력 수단에 의해 선택되는 경우, 현재 출력되는 배경 이미지(300)를 촬영할 수 있다. 더하여, 피사체에 대한 정지 영상 또는 동영상을 촬영할 수 있으며, 이외에도 다양한 카메라 기능을 수행할 수 있을 것이다.
터치 인식 제어부(220)는 메모리(110)에 저장된 터치 인식 운용 프로그램(117)을 실행하여 터치 스크린(190)에 입력되는 터치 이벤트를 감지할 수 있다. 여기서, 터치 이벤트는 터치 스크린(190)에서 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.
일 실시 예에 따르면, 터치 인식 제어부(220)는 카메라 촬영 모드에서 터치 스크린(190)의 터치 정보를 포커싱 제어부(230)로 제공할 수 있다. 터치 인식 제어부(220)는 TAF(Touch Auto Focus) 기능 또는 MF(Manual Focus) 기능을 위한 터치 정보를 수집할 수 있다.
포커싱 제어부(230)는 메모리(110)에 저장된 포커싱 운용 프로그램(118)을 실행하여 피사체에 대한 포커싱 기능을 수행할 수 있다.
일 실시 예에 따르면, 포커싱 제어부(230)는 터치 인식 제어부(220)에서 제공받은 터치 정보를 기반으로 TAF 기능 또는 MF 기능을 수행할 수 있다. 예컨대, 포커싱 제어부(230)는 도 3a와 같은 상태에서 터치 스크린(190)에 디스플레이된 배경이미지(300)의 일정 영역을 터치하는 경우, TAF 기능을 수행하여 일정 영역에 대한 포커싱 화면(320)을 표시할 수 있으며, MF 기능을 수행하여 일정 영역에 대한 이미지 센서의 포커싱 레벨을 나타내는 포커싱 레벨 오브젝트(330)를 표시할 수 있다(도 3b 참조). 이러한 포커싱 제어부(230)는 이미지 센서의 렌즈의 이동 거리와 대응하는 포커싱 레벨을 단계별로 대응시켜 저장할 수 있다.
일 실시 예에 따르면, 포커싱 레벨 오브젝트(330)는 이미지 센서의 렌즈의 이동거리를 나타내는 이동거리 표시바(333)와 현재의 이미지 센서의 렌즈 위치를 나타내는 렌즈 위치 표시자(331)로 구성될 수 있다. 예컨대, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(331)를 터치 및 드래그하여 포커싱 화면(320)에 대한 포커싱 레벨을 조절할 수 있다(도 3c 참조). 이러한 렌즈 위치 표시자(331)는 이동거리 표시바(333) 영역 내에서 이동할 수 있으며, 단계별로 이동 또는 특정 단계로 이동이 가능하다. 이러한 방식으로 사용자는 배경이미지(300)의 일정 영역의 포커싱 레벨을 임의로 조절할 수 있다.
다른 실시 예에 따르면, 포커싱 제어부(230)는 야간 촬영 또는 동영상 촬영 모드에서도 포커싱 레벨을 조절할 수 있다.
도 4a 및 도 4b는 야간 촬영에서의 포커싱 레벨을 조절하는 방법을 설명하는 도면이다.
도 4a에 도시한 바와 같이, 전자 장치(100)는 카메라 촬영 모드로 진입한 후 이미지 센서를 통해 배경이미지(400)를 터치 스크린(190)에 출력할 수 있다. 마찬가지로, 전자 장치(100)는 배경 이미지(400)의 일정 영역에 대한 터치를 감지한 경우, TAF 기능을 수행하여 일정 영역에 대한 포커싱 화면(410)을 표시할 수 있다. 그러나 빛이 부족한 야간의 경우, 전자 장치(100)는 일정 영역에 대한 최적의 포커싱을 수행하지 못하기 때문에 이러한 경우, 포커싱 레벨 오브젝트(420)를 이용하여 포커싱 레벨을 조절할 수 있다.
도 4b에 도시한 바와 같이, 사용자는 포커싱 레벨 오브젝트(420)의 렌즈 위치 표시자(421)를 터치 및 드래그하여 해당 영역에 대한 포커싱 레벨을 조절할 수 있다. 예컨대, 사용자는 이미지 센서의 렌즈 위치와 매칭되는 초점거리에 대한 대략의 정보를 이용하여 포커싱 레벨을 조절할 수 있을 것이다. 그러나 이에 국한되지는 않으며, 동영상 촬영 모드에서의 포커싱 레벨을 조절하여 사물의 거리에 따라 화면이 꿀렁이는 현상 등을 해결할 수 있을 것이다.
표시 제어부(230)는 메모리(110)에 저장된 사용자 인터페이스 모듈(114)을 실행하여 터치 스크린(190)에 그래픽으로 사용자 인터페이스를 표시할 수 있다. 표시 제어부(230)는 어플리케이션 구동부(210)에서 구동되는 어플리케이션 정보 및 포커싱 화면을 터치 스크린(190)에 디스플레이할 수 있도록 제어할 수 있다.
도 5는 본 발명의 일 실시 예에 따른 전자 장치(100)의 동작 방법에 대한 흐름도이다.
도 5를 참고하면, 전자 장치(100)는 500과정에서 이미지 센서를 통하여 수신한 이미지를 디스플레이할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 특정 어플리케이션을 실행하거나 또는 특정 키의 입력 등과 같은 카메라 촬영 모드 진입 이벤트에 따라 카메라 촬영 모드로 진입할 수 있다. 카메라 촬영 모드로 진입하는 경우, 전자 장치(100)는 도 3a에 도시한 바와 같이 이미지 센서를 통하여 수신한 배경이미지(300)를 터치 스크린(190)에 출력할 수 있을 것이다.
그 다음, 전자 장치(100)는 510과정에서 디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트의 감지 여부를 결정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)의 제1일정 영역에 입력되는 제1터치 이벤트를 감지할 수 있다. 여기서, 제1터치 이벤트는 터치 스크린(190)에서 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.
일 실시 예에 따르면, 터치 인식 제어부(220)는 카메라 촬영 모드에서 터치 스크린(190)의 터치 정보를 포커싱 제어부(230)로 제공할 수 있다. 터치 인식 제어부(220)는 TAF(Touch Auto Focus) 기능 또는 MF(Manual Focus) 기능을 위한 터치 정보를 수집할 수 있다.
디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트를 감지한 경우, 전자 장치(100)는 520과정에서 제1영역에 대한 자동 포커싱 화면 및 이미지 센서의 렌즈의 포커싱 레벨을 나타내는 오브젝트를 디스플레이할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(230)는 터치 인식 제어부(220)에서 제공받은 터치 정보에 대응하여 TAF 기능 또는 MF 기능을 수행할 수 있다. 예컨대, 포커싱 제어부(230)는 도 3a와 같은 상태에서 터치 스크린(190)에 디스플레이된 배경이미지(300)의 제1일정 영역을 터치하는 경우, TAF 기능을 수행하여 제1일정 영역에 대한 포커싱 화면(320)을 표시할 수 있으며, MF 기능을 수행하여 제1일정 영역에 대한 이미지 센서의 포커싱 레벨을 나타내는 포커싱 레벨 오브젝트(330)를 표시할 수 있다(도 3b 참조). 이러한 포커싱 제어부(230)는 이미지 센서의 렌즈의 이동 거리와 대응하는 포커싱 레벨을 단계별로 대응시켜 저장할 수 있다.
일 실시 예에 따르면, 포커싱 레벨 오브젝트(330)는 이미지 센서의 렌즈의 이동거리를 나타내는 이동거리 표시바(333)와 현재의 이미지 센서의 렌즈 위치를 나타내는 렌즈 위치 표시자(331)로 구성될 수 있다.
그 다음, 전자 장치(100)는 530과정에서 디스플레이된 오브젝트에 대한 제2터치 이벤트 감지 여부를 결정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)에 디스플레이된 포커싱 레벨 오브젝트(330)에 대한 제2터치 이벤트를 감지할 수 있다. 여기서, 제2터치 이벤트는 터치 스크린(190)에서 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.
일 실시 예에 따르면, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(331)를 터치 및 드래그하여 렌즈 위치 표시자(331)를 이동시킬 수 있다.
디스플레이된 오브젝트에 대한 제2터치 이벤트를 감지한 경우, 전자 장치(100)는 540과정에서 제2터치 이벤트에 따른 오브젝트의 위치에 대응하여 제1영역에 대한 이미지 센서의 렌즈의 포커싱 레벨을 조정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(220)는 렌즈 위치 표시자(331)의 움직임에 따라 포커싱 레벨을 조절할 수 있다. 예컨대, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(331)를 터치 및 드래그하여 포커싱 화면(320)에 대한 포커싱 레벨을 조절할 수 있다(도 3c 참조). 이러한 렌즈 위치 표시자(331)는 이동거리 표시바(333) 영역 내에서 이동할 수 있으며, 단계별로 이동 또는 특정 단계로 이동이 가능하다. 이러한 방식으로 사용자는 배경이미지(300)의 제1일정 영역의 포커싱 레벨을 임의로 조절할 수 있다.
이러한 각 과정에 대한 명령어 세트는 상술한 메모리(110)에 하나 이상의 모듈로 저장될 수 있다. 이 경우, 메모리(110)에 저장되어 있는 모듈은 하나 이상의 프로세서(122)에 의하여 실행될 수 있다.
도 6은 본 발명의 다른 실시 예에 따른 전자 장치(100)의 동작 방법에 대한 흐름도이다.
도 6을 참고하면, 전자 장치(100)는 600과정에서 이미지 센서를 통하여 수신한 이미지를 디스플레이할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 특정 어플리케이션을 실행하거나 또는 특정 키의 입력 등과 같은 카메라 촬영 모드 진입 이벤트에 따라 카메라 촬영 모드로 진입할 수 있다. 카메라 촬영 모드로 진입하는 경우, 전자 장치(100)는 도 4a에 도시한 바와 같이 이미지 센서를 통하여 수신한 배경이미지(400)를 터치 스크린(190)에 출력할 수 있을 것이다.
그 다음, 전자 장치(100)는 610과정에서 디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트의 감지 여부를 결정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)의 제1일정 영역에 입력되는 제1터치 이벤트를 감지할 수 있다. 여기서, 제1터치 이벤트는 터치 스크린(190)에서 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.
일 실시 예에 따르면, 터치 인식 제어부(220)는 카메라 촬영 모드에서 터치 스크린(190)의 터치 정보를 포커싱 제어부(230)로 제공할 수 있다. 터치 인식 제어부(220)는 TAF(Touch Auto Focus) 기능 또는 MF(Manual Focus) 기능을 위한 터치 정보를 수집할 수 있다.
디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트를 감지한 경우, 전자 장치(100)는 620과정에서 주변 밝기가 일정 밝기 미만인지 여부를 결정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 조도 센서 또는 카메라 센서를 통해 전자 장치(100)의 주변 밝기를 측정할 수 있다.
주변 밝기가 일정 밝기 이상인 경우, 전자 장치(100)는 630과정에서 제1영역에 대한 자동 포커싱 화면을 디스플레이할 수 있다.
일 실시 예에 따르면, 포커싱 제어부(220)는 주변 밝기가 일정 밝기 이상인 경우, 제1영역에 대한 TAF 기능을 수행하여 제1영역에 대한 포커싱 화면을 표시할 수 있을 것이다.
주변 밝기가 일정 밝기 미만인 경우, 전자 장치(100)는 640과정에서 제1영역에 대한 자동 포커싱 화면 및 이미지 센서의 렌즈의 포커싱 레벨을 나타내는 오브젝트를 디스플레이할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(230)는 터치 인식 제어부(220)에서 제공받은 터치 정보에 대응하여 TAF 기능 또는 MF 기능을 수행할 수 있다. 예컨대, 포커싱 제어부(230)는 도 4a와 같은 상태에서 터치 스크린(190)에 디스플레이된 배경이미지(400)의 제1일정 영역을 터치하는 경우, TAF 기능을 수행하여 제1일정 영역에 대한 포커싱 화면(410)을 표시할 수 있으며, MF 기능을 수행하여 제1일정 영역에 대한 이미지 센서의 포커싱 레벨을 나타내는 포커싱 레벨 오브젝트(420)를 표시할 수 있다. 이러한 포커싱 제어부(230)는 이미지 센서의 렌즈의 이동 거리와 대응하는 포커싱 레벨을 단계별로 대응시켜 저장할 수 있다.
일 실시 예에 따르면, 포커싱 레벨 오브젝트(420)는 이미지 센서의 렌즈의 이동거리를 나타내는 이동거리 표시바(423)와 현재의 이미지 센서의 렌즈 위치를 나타내는 렌즈 위치 표시자(421)로 구성될 수 있다.
그 다음, 전자 장치(100)는 650과정에서 디스플레이된 오브젝트에 대한 제2터치 이벤트 감지 여부를 결정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)에 디스플레이된 포커싱 레벨 오브젝트(420)에 대한 제2터치 이벤트를 감지할 수 있다. 여기서, 제2터치 이벤트는 터치 스크린(190)에서 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.
일 실시 예에 따르면, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(421)를 터치 및 드래그하여 렌즈 위치 표시자(421)를 이동시킬 수 있다.
디스플레이된 오브젝트에 대한 제2터치 이벤트를 감지한 경우, 전자 장치(100)는 660과정에서 제2터치 이벤트에 따른 오브젝트의 위치에 대응하여 제1영역에 대한 이미지 센서의 렌즈의 포커싱 레벨을 조정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(220)는 렌즈 위치 표시자(421)의 움직임에 따라 포커싱 레벨을 조절할 수 있다. 예컨대, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(421)를 터치 및 드래그하여 포커싱 화면(410)에 대한 포커싱 레벨을 조절할 수 있다(도 4b 참조). 이러한 렌즈 위치 표시자(421)는 이동거리 표시바(423) 영역 내에서 이동할 수 있으며, 단계별로 이동 또는 특정 단계로 이동이 가능하다. 이러한 방식으로 사용자는 배경이미지(400)의 제1일정 영역의 포커싱 레벨을 임의로 조절할 수 있다.
다양한 실시 예에 따르면, 전자 장치(100)는 상술한 방식으로 주변의 밝기를 확인하여 최적의 포커싱을 수행할 수 없는 상태에서는 수동 포커스 기능을 활성화하도록 할 수 있다.
이러한 각 과정에 대한 명령어 세트는 상술한 메모리(110)에 하나 이상의 모듈로 저장될 수 있다. 이 경우, 메모리(110)에 저장되어 있는 모듈은 하나 이상의 프로세서(122)에 의하여 실행될 수 있다.
도 7은 본 발명의 또 다른 실시 예에 따른 전자 장치(100)의 동작 방법에 대한 흐름도이다.
도 7을 참고하면, 전자 장치(100)는 700과정에서 이미지 센서를 통하여 수신한 이미지를 디스플레이할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 특정 어플리케이션을 실행하거나 또는 특정 키의 입력 등과 같은 카메라 촬영 모드 진입 이벤트에 따라 카메라 촬영 모드로 진입할 수 있다. 카메라 촬영 모드로 진입하는 경우, 전자 장치(100)는 이미지 센서를 통하여 수신한 배경이미지(300)를 터치 스크린(190)에 출력할 수 있을 것이다.
그 다음, 전자 장치(100)는 710과정에서 디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트의 감지 여부를 결정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)의 제1일정 영역에 입력되는 제1터치 이벤트를 감지할 수 있다. 여기서, 제1터치 이벤트는 터치 스크린(190)에서 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.
일 실시 예에 따르면, 터치 인식 제어부(220)는 카메라 촬영 모드에서 터치 스크린(190)의 터치 정보를 포커싱 제어부(230)로 제공할 수 있다. 터치 인식 제어부(220)는 TAF(Touch Auto Focus) 기능 또는 MF(Manual Focus) 기능을 위한 터치 정보를 수집할 수 있다.
디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트를 감지한 경우, 전자 장치(100)는 720과정에서 동영상 촬영 모드인지 여부를 결정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 현재 카메라 촬영 모드가 일반 촬영 모드인지 또는 동영상 촬영 모드인지 여부를 확인할 수 있다.
동영상 촬영 모드가 아닌 경우, 전자 장치(100)는 730과정에서 제1영역에 대한 자동 포커싱 화면을 디스플레이할 수 있다.
일 실시 예에 따르면, 포커싱 제어부(220)는 일반 촬영 모드인 경우, 제1영역에 대한 TAF 기능을 수행하여 제1영역에 대한 포커싱 화면을 표시할 수 있을 것이다.
동영상 촬영 모드인 경우, 전자 장치(100)는 740과정에서 제1영역에 대한 자동 포커싱 화면 및 이미지 센서의 렌즈의 포커싱 레벨을 나타내는 오브젝트를 디스플레이할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(230)는 터치 인식 제어부(220)에서 제공받은 터치 정보에 대응하여 TAF 기능 또는 MF 기능을 수행할 수 있다. 예컨대, 포커싱 제어부(230)는 도 3b와 같이 터치 스크린(190)에 디스플레이된 배경이미지(300)의 제1일정 영역을 터치하는 경우, TAF 기능을 수행하여 제1일정 영역에 대한 포커싱 화면(320)을 표시할 수 있으며, MF 기능을 수행하여 제1일정 영역에 대한 이미지 센서의 포커싱 레벨을 나타내는 포커싱 레벨 오브젝트(330)를 표시할 수 있다. 이러한 포커싱 제어부(230)는 이미지 센서의 렌즈의 이동 거리와 대응하는 포커싱 레벨을 단계별로 대응시켜 저장할 수 있다.
일 실시 예에 따르면, 포커싱 레벨 오브젝트(330)는 이미지 센서의 렌즈의 이동거리를 나타내는 이동거리 표시바(333)와 현재의 이미지 센서의 렌즈 위치를 나타내는 렌즈 위치 표시자(331)로 구성될 수 있다.
그 다음, 전자 장치(100)는 750과정에서 디스플레이된 오브젝트에 대한 제2터치 이벤트 감지 여부를 결정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)에 디스플레이된 포커싱 레벨 오브젝트(330)에 대한 제2터치 이벤트를 감지할 수 있다. 여기서, 제2터치 이벤트는 터치 스크린(190)에서 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.
일 실시 예에 따르면, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(331)를 터치 및 드래그하여 렌즈 위치 표시자(331)를 이동시킬 수 있다.
디스플레이된 오브젝트에 대한 제2터치 이벤트를 감지한 경우, 전자 장치(100)는 760과정에서 제2터치 이벤트에 따른 오브젝트의 위치에 대응하여 제1영역에 대한 이미지 센서의 렌즈의 포커싱 레벨을 조정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(220)는 렌즈 위치 표시자(331)의 움직임에 따라 포커싱 레벨을 조절할 수 있다. 예컨대, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(331)를 터치 및 드래그하여 포커싱 화면(320)에 대한 포커싱 레벨을 조절할 수 있다(도 3c 참조). 이러한 렌즈 위치 표시자(331)는 이동거리 표시바(333) 영역 내에서 이동할 수 있으며, 단계별로 이동 또는 특정 단계로 이동이 가능하다. 이러한 방식으로 사용자는 배경이미지(300)의 제1일정 영역의 포커싱 레벨을 임의로 조절할 수 있다.
다양한 실시 예에 따르면, 전자 장치(100)는 상술한 방식으로 동영상 촬영 모드인 경우 물체 간의 거리에 따라 화면이 꿀렁이는 현상을 미연에 방지할 수 있을 것이다. 또한, 최적의 포커싱을 수행할 수 없는 상태에서는 수동 포커스 기능을 활성화하도록 할 수 있다.
이러한 각 과정에 대한 명령어 세트는 상술한 메모리(110)에 하나 이상의 모듈로 저장될 수 있다. 이 경우, 메모리(110)에 저장되어 있는 모듈은 하나 이상의 프로세서(122)에 의하여 실행될 수 있다.
도 8은 본 발명의 다양한 실시 예에 따른 전자 장치(100)의 동작 방법에 대한 흐름도이다.
도 8을 참고하면, 전자 장치(100)는 800과정에서 이미지 센서를 통하여 수신한 이미지를 디스플레이할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 특정 어플리케이션을 실행하거나 또는 특정 키의 입력 등과 같은 카메라 촬영 모드 진입 이벤트에 따라 카메라 촬영 모드로 진입할 수 있다. 카메라 촬영 모드로 진입하는 경우, 전자 장치(100)는 이미지 센서를 통하여 수신한 배경이미지(300)를 터치 스크린(190)에 출력할 수 있을 것이다.
그 다음, 전자 장치(100)는 810과정에서 디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트의 감지 여부를 결정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)의 제1일정 영역에 입력되는 제1터치 이벤트를 감지할 수 있다. 여기서, 제1터치 이벤트는 터치 스크린(190)에서 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.
일 실시 예에 따르면, 터치 인식 제어부(220)는 카메라 촬영 모드에서 터치 스크린(190)의 터치 정보를 포커싱 제어부(230)로 제공할 수 있다. 터치 인식 제어부(220)는 TAF(Touch Auto Focus) 기능 또는 MF(Manual Focus) 기능을 위한 터치 정보를 수집할 수 있다.
디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트를 감지한 경우, 전자 장치(100)는 820과정에서 주변 밝기가 일정 밝기 미만이거나 또는 동영상 촬영 모드인지 여부를 결정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 조도 센서 또는 카메라 센서를 통해 전자 장치(100)의 주변 밝기를 측정할 수 있다. 또한, 전자 장치(100)는 현재 카메라 촬영 모드가 일반 촬영 모드인지 또는 동영상 촬영 모드인지 여부를 확인할 수 있다.
주변 밝기가 일정 밝기 이상이고, 동영상 촬영 모드가 아닌 경우, 전자 장치(100)는 830과정에서 제1영역에 대한 자동 포커싱 화면을 디스플레이할 수 있다.
일 실시 예에 따르면, 포커싱 제어부(220)는 제1영역에 대한 TAF 기능을 수행하여 제1영역에 대한 포커싱 화면을 표시할 수 있을 것이다.
주변 밝기가 일정 밝기 미만이거나 또는 동영상 촬영 모드인 경우, 전자 장치(100)는 840과정에서 제1영역에 대한 자동 포커싱 화면 및 이미지 센서의 렌즈의 포커싱 레벨을 나타내는 오브젝트를 디스플레이할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(230)는 터치 인식 제어부(220)에서 제공받은 터치 정보에 대응하여 TAF 기능 또는 MF 기능을 수행할 수 있다. 예컨대, 포커싱 제어부(230)는 도 3b와 같이 터치 스크린(190)에 디스플레이된 배경이미지(300)의 제1일정 영역을 터치하는 경우, TAF 기능을 수행하여 제1일정 영역에 대한 포커싱 화면(320)을 표시할 수 있으며, MF 기능을 수행하여 제1일정 영역에 대한 이미지 센서의 포커싱 레벨을 나타내는 포커싱 레벨 오브젝트(330)를 표시할 수 있다. 이러한 포커싱 제어부(230)는 이미지 센서의 렌즈의 이동 거리와 대응하는 포커싱 레벨을 단계별로 대응시켜 저장할 수 있다.
일 실시 예에 따르면, 포커싱 레벨 오브젝트(330)는 이미지 센서의 렌즈의 이동거리를 나타내는 이동거리 표시바(333)와 현재의 이미지 센서의 렌즈 위치를 나타내는 렌즈 위치 표시자(331)로 구성될 수 있다.
그 다음, 전자 장치(100)는 850과정에서 디스플레이된 오브젝트에 대한 제2터치 이벤트 감지 여부를 결정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)에 디스플레이된 포커싱 레벨 오브젝트(330)에 대한 제2터치 이벤트를 감지할 수 있다. 여기서, 제2터치 이벤트는 터치 스크린(190)에서 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.
일 실시 예에 따르면, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(331)를 터치 및 드래그하여 렌즈 위치 표시자(331)를 이동시킬 수 있다.
디스플레이된 오브젝트에 대한 제2터치 이벤트를 감지한 경우, 전자 장치(100)는 860과정에서 제2터치 이벤트에 따른 오브젝트의 위치에 대응하여 제1영역에 대한 이미지 센서의 렌즈의 포커싱 레벨을 조정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(220)는 렌즈 위치 표시자(331)의 움직임에 따라 포커싱 레벨을 조절할 수 있다. 예컨대, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(331)를 터치 및 드래그하여 포커싱 화면(320)에 대한 포커싱 레벨을 조절할 수 있다(도 3c 참조). 이러한 렌즈 위치 표시자(331)는 이동거리 표시바(333) 영역 내에서 이동할 수 있으며, 단계별로 이동 또는 특정 단계로 이동이 가능하다. 이러한 방식으로 사용자는 배경이미지(300)의 제1일정 영역의 포커싱 레벨을 임의로 조절할 수 있다.
다양한 실시 예에 따르면, 전자 장치(100)는 주변이 어둡거나 또는 동영상 촬영 모드인 경우를 감지하여 수동 포커싱 기능을 활성화하는 것으로 서술하였으나 이에 국한되지는 않는다. 예컨대, 전자 장치(100)는 다양한 특정 상황을 설정하여 수동 포커싱 기능을 수행할 수 있을 것이다.
이러한 각 과정에 대한 명령어 세트는 상술한 메모리(110)에 하나 이상의 모듈로 저장될 수 있다. 이 경우, 메모리(110)에 저장되어 있는 모듈은 하나 이상의 프로세서(122)에 의하여 실행될 수 있다.
도 9는 본 발명의 다양한 실시 예에 따른 전자 장치(100)의 동작 방법에 대한 흐름도이다.
도 9를 참고하면, 전자 장치(100)는 900과정에서 이미지 센서를 통하여 수신한 이미지를 디스플레이할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 특정 어플리케이션을 실행하거나 또는 특정 키의 입력 등과 같은 카메라 촬영 모드 진입 이벤트에 따라 카메라 촬영 모드로 진입할 수 있다. 카메라 촬영 모드로 진입하는 경우, 전자 장치(100)는 이미지 센서를 통하여 수신한 배경이미지(300)를 터치 스크린(190)에 출력할 수 있을 것이다.
그 다음, 전자 장치(100)는 910과정에서 디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트의 감지 여부를 결정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)의 제1일정 영역에 입력되는 제1터치 이벤트를 감지할 수 있다. 여기서, 제1터치 이벤트는 터치 스크린(190)에서 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.
일 실시 예에 따르면, 터치 인식 제어부(220)는 카메라 촬영 모드에서 터치 스크린(190)의 터치 정보를 포커싱 제어부(230)로 제공할 수 있다. 터치 인식 제어부(220)는 TAF(Touch Auto Focus) 기능 또는 MF(Manual Focus) 기능을 위한 터치 정보를 수집할 수 있다.
디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트를 감지한 경우, 전자 장치(100)는 920과정에서 수동 포커싱 기능이 활성화되었는지 여부를 결정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 수동 포커싱 기능을 선택적으로 활성화할 수 있다. 예컨대, 동영상 촬영 모드 또는 야간 촬영 모드일 경우 수동 포커싱 기능을 활성화하도록 할 수 있다.
수동 포커싱 기능이 활성화되지 않은 경우, 전자 장치(100)는 930과정에서 제1영역에 대한 자동 포커싱 화면을 디스플레이할 수 있다.
일 실시 예에 따르면, 포커싱 제어부(220)는 일반 촬영 모드인 경우, 제1영역에 대한 TAF 기능을 수행하여 제1영역에 대한 포커싱 화면을 표시할 수 있을 것이다.
수동 포커싱 기능이 활성화된 경우, 전자 장치(100)는 940과정에서 제1영역에 대한 자동 포커싱 화면 및 이미지 센서의 렌즈의 포커싱 레벨을 나타내는 오브젝트를 디스플레이할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(230)는 터치 인식 제어부(220)에서 제공받은 터치 정보에 대응하여 TAF 기능 또는 MF 기능을 수행할 수 있다. 예컨대, 포커싱 제어부(230)는 도 3b와 같이 터치 스크린(190)에 디스플레이된 배경이미지(300)의 제1일정 영역을 터치하는 경우, TAF 기능을 수행하여 제1일정 영역에 대한 포커싱 화면(320)을 표시할 수 있으며, MF 기능을 수행하여 제1일정 영역에 대한 이미지 센서의 포커싱 레벨을 나타내는 포커싱 레벨 오브젝트(330)를 표시할 수 있다. 이러한 포커싱 제어부(230)는 이미지 센서의 렌즈의 이동 거리와 대응하는 포커싱 레벨을 단계별로 대응시켜 저장할 수 있다.
일 실시 예에 따르면, 포커싱 레벨 오브젝트(330)는 이미지 센서의 렌즈의 이동거리를 나타내는 이동거리 표시바(333)와 현재의 이미지 센서의 렌즈 위치를 나타내는 렌즈 위치 표시자(331)로 구성될 수 있다.
그 다음, 전자 장치(100)는 950과정에서 디스플레이된 오브젝트에 대한 제2터치 이벤트 감지 여부를 결정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)에 디스플레이된 포커싱 레벨 오브젝트(330)에 대한 제2터치 이벤트를 감지할 수 있다. 여기서, 제2터치 이벤트는 터치 스크린(190)에서 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.
일 실시 예에 따르면, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(331)를 터치 및 드래그하여 렌즈 위치 표시자(331)를 이동시킬 수 있다.
디스플레이된 오브젝트에 대한 제2터치 이벤트를 감지한 경우, 전자 장치(100)는 960과정에서 제2터치 이벤트에 따른 오브젝트의 위치에 대응하여 제1영역에 대한 이미지 센서의 렌즈의 포커싱 레벨을 조정할 수 있다.
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(220)는 렌즈 위치 표시자(331)의 움직임에 따라 포커싱 레벨을 조절할 수 있다. 예컨대, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(331)를 터치 및 드래그하여 포커싱 화면(320)에 대한 포커싱 레벨을 조절할 수 있다(도 3c 참조). 이러한 렌즈 위치 표시자(331)는 이동거리 표시바(333) 영역 내에서 이동할 수 있으며, 단계별로 이동 또는 특정 단계로 이동이 가능하다. 이러한 방식으로 사용자는 배경이미지(300)의 제1일정 영역의 포커싱 레벨을 임의로 조절할 수 있다.
다양한 실시 예에 따르면, 전자 장치(100)는 상술한 방식으로 특정 기능을 활성화 또는 비활성화하여 포커싱 기능을 수동적으로 조정할 수 있다.
이러한 각 과정에 대한 명령어 세트는 상술한 메모리(110)에 하나 이상의 모듈로 저장될 수 있다. 이 경우, 메모리(110)에 저장되어 있는 모듈은 하나 이상의 프로세서(122)에 의하여 실행될 수 있다.
본 발명의 일 실시 예에 따르면, 각각의 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 그 조합으로 구성될 수 있다. 일부 또는 전체 모듈은 하나의 개체에 구성되고, 각 모듈의 기능을 동일하게 수행할 수 있다. 본 발명의 일 실시 예에 따르면, 각각의 과정들은 순차적, 반복적 또는 병렬적으로 실행될 수 있다. 일부 과정들은 생략되거나 다른 과정들이 추가되어 실행될 수 있다. 예컨대, 각각의 과정들은 본 발명의 실시 예에서 기술한 대응하는 모듈에 의해서 실행될 수 있다.
소프트웨어로 구현하는 경우, 하나 이상의 프로그램(소프트웨어 모듈)을 저장하는 비일시적인(non-transient) 컴퓨터 판독 가능 저장 매체가 제공될 수 있다. 컴퓨터 판독 가능 저장 매체에 저장되는 하나 이상의 프로그램은 전자 장치 내의 하나 이상의 프로세서에 의해 실행될 수 있다. 하나 이상의 프로그램은 전자 장치로 하여금, 본 발명의 다양한 실시 예들에 따른 방법들을 실행하게 하는 명령어를 포함할 수 있다.
이러한 프로그램(소프트웨어 모듈, 소프트웨어)은 랜덤 액세스 메모리(random access memory), 플래시(flash) 메모리를 포함하는 불휘발성(non-volatile) 메모리, 롬(ROM, Read Only Memory), 전기적 삭제가능 프로그램가능 롬(EEPROM, Electrically Erasable Programmable Read Only Memory), 자기 디스크 저장 장치(magnetic disc storage device), 컴팩트 디스크 롬(CD-ROM, Compact Disc-ROM), 디지털 다목적 디스크(DVDs, Digital Versatile Discs) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)에 저장될 수 있다. 또는 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다.
전자 장치에 인터넷(Internet), 인트라넷(Intranet), LAN(Local Area Network), WLAN(Wide LAN) 또는 SAN(Storage Area Network)과 같은 통신 네트워크 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근할 수 있는 부착 가능한 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트 장치를 통하여 전자 장치에 접속할 수 있다.
또한, 통신 네트워크상의 별도의 저장 장치가 전자 장치에 접속할 수도 있다.
분명히, 청구항들의 범위 내에 있으면서 이러한 실시 예들을 변형할 수 있는 다양한 방식들이 있다. 다시 말하면, 이하 청구항들의 범위를 벗어남 없이 본 발명을 실시할 수 있는 다양한 방식들이 있을 것이다.
100: 전자 장치 190: 터치 스크린
300, 400: 배경이미지 320, 410: 포커싱 화면
330, 420: 포커싱 레벨 오브젝트

Claims (20)

  1. 터치 스크린을 포함하는 전자 장치의 동작 방법에 있어서,
    이미지 센서를 통하여 수신한 이미지를 디스플레이하는 과정;
    상기 이미지의 제1영역에 대한 제1터치 이벤트를 감지하는 과정;
    상기 제1영역에 대한 자동 포커싱 화면 및 상기 이미지 센서의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이하는 과정;
    상기 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하는 과정; 및
    상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제1영역에 대한 상기 이미지 센서의 렌즈의 포커싱 레벨을 조절하는 과정을 포함하는 방법.
  2. 제 1항에 있어서,
    상기 이미지 센서의 렌즈의 이동 거리와 대응하는 상기 포커싱 레벨을 단계별로 대응시켜 저장하는 과정을 추가로 포함하는 방법.
  3. 제 2항에 있어서,
    상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 포커싱 레벨이 기저장된 단계별로 이동하거나 또는 기저장된 특정 단계로 이동하는 것을 포함하는 방법.
  4. 제 1항에 있어서,
    상기 자동 포커싱 화면은 상기 이미지의 디스플레이 화면보다 작고, 상기 사용자 인터페이스 오브젝트는 상기 이미지 디스플레이 화면상에 디스플레이되는 것을 포함하는 방법.
  5. 제 1항에 있어서,
    상기 제1터치 이벤트는 상기 터치 스크린에서 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함하는 방법.
  6. 제 1항에 있어서,
    상기 제1영역에 대한 상기 자동 포커싱 화면은 상기 제1영역에 대한 상기 이미지 센서의 렌즈의 최적의 포커싱을 적용하는 것을 포함하는 방법.
  7. 제 1항에 있어서,
    상기 제2터치 이벤트는 상기 사용자 인터페이스 오브젝트에 대한 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함하는 방법.
  8. 제 1항에 있어서,
    상기 이미지 센서는 closed loop 방식을 적용하는 것을 포함하는 방법.
  9. 전자 장치에 있어서,
    터치 스크린;
    적어도 하나의 이미지 센서;
    메모리; 및
    적어도 하나의 프로세서를 포함하고,
    상기 프로세서는,
    상기 이미지 센서를 통하여 수신한 이미지를 디스플레이하고,
    상기 이미지의 제1영역에 대한 제1터치 이벤트를 감지하고,
    상기 제1영역에 대한 자동 포커싱 화면 및 상기 이미지 센서의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이하며,
    상기 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하고,
    상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제1영역에 대한 상기 이미지 센서의 렌즈의 포커싱 레벨을 조절하는 전자 장치.
  10. 제 9항에 있어서,
    상기 프로세서는 상기 이미지 센서의 렌즈의 이동 거리와 대응하는 상기 포커싱 레벨을 단계별로 대응시켜 저장하는 전자 장치.
  11. 제 10항에 있어서,
    상기 프로세서는 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 포커싱 레벨을 기저장된 단계별로 이동하거나 또는 기저장된 특정 단계로 이동하는 전자 장치.
  12. 제 9항에 있어서,
    상기 프로세서는 상기 자동 포커싱 화면을 상기 이미지의 디스플레이 화면보다 작게 하고, 상기 사용자 인터페이스 오브젝트를 상기 이미지 디스플레이 화면상에 디스플레이하도록 제어하는 전자 장치.
  13. 제 9항에 있어서,
    상기 프로세서는 상기 터치 스크린에서 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 상기 제1터치 이벤트로 감지하는 전자 장치.
  14. 제 9항에 있어서,
    상기 프로세서는 상기 제1영역에 대한 상기 자동 포커싱 화면을 상기 제1영역에 대한 상기 이미지 센서의 렌즈의 최적의 포커싱을 적용하는 전자 장치.
  15. 제 9항에 있어서,
    상기 프로세서는 상기 사용자 인터페이스 오브젝트에 대한 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 상기 제2터치 이벤트로 감지하는 전자 장치.
  16. 제 1항에 있어서,
    상기 이미지 센서는 closed loop 방식을 적용하는 전자 장치.
  17. 터치 스크린을 포함하는 전자 장치의 동작 방법에 있어서,
    이미지 센서를 통하여 수신한 제1동영상을 디스플레이하는 과정;
    상기 이미지 센서를 통하여 수신한 제2동영상을 디스플레이하는 과정;
    상기 제1동영상의 제1대상물과 상기 제2동영상의 제2대상물이 상기 이미지 센서로부터의 거리가 기준거리 이상이라는 입력을 감지하는 과정;
    상기 제2동영상의 상기 제2대상물에 대한 제1터치 이벤트를 감지하는 과정;
    상기 제2대상물에 대한 자동 포커싱 화면 및 상기 이미지 센서의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이하는 과정, 상기 자동 포커싱 화면은 상기 제2동영상 디스플레이 화면보다 작고, 상기 사용자 인터페이스 오브젝트는 상기 제2동영상 디스플레이 화면상에 디스플레이되고;
    상기 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하는 과정; 및
    상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제2동영상의 상기 제2대상물에 대한 상기 이미지 센서의 렌즈의 포커싱 레벨을 조절하는 과정을 포함하는 방법.
  18. 터치 스크린을 포함하는 전자 장치의 동작 방법에 있어서,
    이미지 센서를 통하여 수신한 제1동영상을 디스플레이하는 과정;
    상기 이미지 센서를 통하여 수신한 제2동영상을 디스플레이하는 과정, 여기에서 상기 제1동영상의 제1대상물과 상기 제2동영상의 제2대상물이 상기 이미지 센서로부터의 거리가 기준거리 이상이고;
    상기 제2동영상의 상기 제2대상물에 대한 제1터치 이벤트를 감지하는 과정;
    상기 제2대상물에 대한 자동 포커싱 화면 및 상기 이미지 센서의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이하는 과정, 상기 자동 포커싱 화면은 상기 제2동영상 디스플레이 화면보다 작고, 상기 사용자 인터페이스 오브젝트는 상기 제2동영상 디스플레이 화면상에 디스플레이되고;
    상기 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하는 과정; 및
    상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제2동영상의 상기 제2대상물에 대한 상기 이미지 센서의 렌즈의 포커싱 레벨을 조절하는 과정을 포함하는 방법.
  19. 터치 스크린을 포함하는 전자 장치의 동작 방법에 있어서,
    이미지 센서를 통하여 수신한 제1동영상을 디스플레이하는 과정;
    상기 이미지 센서를 통하여 수신한 제2동영상을 디스플레이하는 과정, 여기에서 상기 제1동영상의 제1대상물은 상기 제2동영상의 제2대상물과 다르며;
    상기 제2동영상의 상기 제2대상물에 대한 제1터치 이벤트를 감지하는 과정;
    상기 제2대상물에 대한 자동 포커싱 화면 및 상기 이미지 센서의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이하는 과정, 여기에서 상기 자동 포커싱 화면은 상기 제2동영상 디스플레이 화면보다 작고, 상기 사용자 인터페이스 오브젝트는 상기 제2동영상 디스플레이 화면상에 디스플레이되고;
    상기 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하는 과정; 및
    상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제2동영상의 상기 제2대상물에 대한 상기 이미지 센서의 렌즈의 포커싱 레벨을 조절하는 과정을 포함하는 방법.
  20. 전자 장치에 의해 실행될 경우, 상기 전자 장치로 하여금 상기 제 1항의 방법을 수행하도록 하는 명령어들을 포함하는 하나 이상의 프로그램을 저장한 비일시적인(non-transient) 컴퓨터 판독 가능 저장 매체.
KR1020130105938A 2013-09-04 2013-09-04 이미지 촬영 방법 및 그 전자 장치 KR102158293B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130105938A KR102158293B1 (ko) 2013-09-04 2013-09-04 이미지 촬영 방법 및 그 전자 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130105938A KR102158293B1 (ko) 2013-09-04 2013-09-04 이미지 촬영 방법 및 그 전자 장치

Publications (2)

Publication Number Publication Date
KR20150027502A true KR20150027502A (ko) 2015-03-12
KR102158293B1 KR102158293B1 (ko) 2020-09-21

Family

ID=53022824

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130105938A KR102158293B1 (ko) 2013-09-04 2013-09-04 이미지 촬영 방법 및 그 전자 장치

Country Status (1)

Country Link
KR (1) KR102158293B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113302908A (zh) * 2020-09-22 2021-08-24 深圳市大疆创新科技有限公司 控制方法、手持云台、系统及计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006222618A (ja) * 2005-02-09 2006-08-24 Casio Comput Co Ltd カメラ装置、カメラ制御プログラム及び記録音声制御方法
JP2010237911A (ja) * 2009-03-31 2010-10-21 Sanyo Electric Co Ltd 電子機器
KR20110085141A (ko) * 2010-01-19 2011-07-27 삼성전자주식회사 디지털 영상처리장치 및 방법
KR20120037047A (ko) * 2010-10-11 2012-04-19 엘지전자 주식회사 이동 단말기 및 이를 이용한 이미지 촬상 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006222618A (ja) * 2005-02-09 2006-08-24 Casio Comput Co Ltd カメラ装置、カメラ制御プログラム及び記録音声制御方法
JP2010237911A (ja) * 2009-03-31 2010-10-21 Sanyo Electric Co Ltd 電子機器
KR20110085141A (ko) * 2010-01-19 2011-07-27 삼성전자주식회사 디지털 영상처리장치 및 방법
KR20120037047A (ko) * 2010-10-11 2012-04-19 엘지전자 주식회사 이동 단말기 및 이를 이용한 이미지 촬상 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113302908A (zh) * 2020-09-22 2021-08-24 深圳市大疆创新科技有限公司 控制方法、手持云台、系统及计算机可读存储介质

Also Published As

Publication number Publication date
KR102158293B1 (ko) 2020-09-21

Similar Documents

Publication Publication Date Title
US9952681B2 (en) Method and device for switching tasks using fingerprint information
ES2946003T3 (es) Método y dispositivo electrónico de procesamiento de notificaciones
WO2021051650A1 (zh) 人脸和人手关联检测方法及装置、电子设备和存储介质
US10891005B2 (en) Electronic device with bent display and method for controlling thereof
EP2975838B1 (en) Image shooting parameter adjustment method and device
EP3163404B1 (en) Method and device for preventing accidental touch of terminal with touch screen
KR102075117B1 (ko) 사용자 기기 및 그 동작 방법
KR20150065415A (ko) 곡형 디스플레이 모듈을 갖는 전자 장치 및 그 운용 방법
KR20130102834A (ko) 이동 단말기 및 그 제어방법
EP3232301B1 (en) Mobile terminal and virtual key processing method
KR102234400B1 (ko) 컨텐츠의 순서 또는 위치를 변경하는 전자 장치 및 방법
US10061497B2 (en) Method, device and storage medium for interchanging icon positions
EP3182256B1 (en) Touch control button, touch control panel and touch control terminal
KR20150045637A (ko) 사용자 인터페이스 운용 방법 및 그 전자 장치
KR20150051292A (ko) 컨텐츠 공유 방법 및 그 전자 장치
US9633273B2 (en) Method for processing image and electronic device thereof
US20150042589A1 (en) Method and electronic device for wireless connection
KR102185204B1 (ko) 적외선을 이용한 센서 장치를 갖는 전자 장치 및 그 동작 방법
WO2022222688A1 (zh) 一种窗口控制方法及其设备
KR102158293B1 (ko) 이미지 촬영 방법 및 그 전자 장치
WO2017035794A1 (zh) 显示器操作的方法、装置、用户界面及存储介质
US20150102670A1 (en) Method for operating booting and electronic device thereof
KR20150026395A (ko) 이미지 촬영 방법 및 그 전자 장치
KR102120449B1 (ko) 어플리케이션 운용 방법 및 그 전자 장치
KR20150049608A (ko) 데이터 송수신 방법 및 그 전자 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant