KR102158293B1 - Method for capturing image and electronic device thereof - Google Patents
Method for capturing image and electronic device thereof Download PDFInfo
- Publication number
- KR102158293B1 KR102158293B1 KR1020130105938A KR20130105938A KR102158293B1 KR 102158293 B1 KR102158293 B1 KR 102158293B1 KR 1020130105938 A KR1020130105938 A KR 1020130105938A KR 20130105938 A KR20130105938 A KR 20130105938A KR 102158293 B1 KR102158293 B1 KR 102158293B1
- Authority
- KR
- South Korea
- Prior art keywords
- camera device
- touch
- focusing
- touch event
- user interface
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Abstract
본 발명의 일 실시 예에 따르면, 터치 스크린을 포함하는 전자 장치의 동작 방법에 있어서, 카메라 장치를 통하여 수신한 이미지를 디스플레이하는 과정과, 상기 이미지의 제1영역에 대한 제1터치 이벤트를 감지하는 과정과, 상기 제1영역에 대한 자동 포커싱 화면 및 상기 카메라 장치의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이하는 과정과, 상기 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하는 과정 및 상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제1영역에 대한 상기 카메라 장치의 렌즈의 포커싱 레벨을 조절하는 과정을 포함하는 방법을 제공할 수 있다.
또한, 다른 실시 예가 가능하다. According to an embodiment of the present invention, in a method of operating an electronic device including a touch screen, a process of displaying an image received through a camera device, and detecting a first touch event for a first area of the image A process, a process of displaying an automatic focusing screen for the first area and a user interface object indicating a focusing level of a lens of the camera device, a process of detecting a second touch event for the user interface object, and the second It is possible to provide a method including a process of adjusting a focusing level of a lens of the camera device with respect to the first region in response to a position of the user interface object according to a touch event.
Also, other embodiments are possible.
Description
본 발명은 이미지 촬영 방법 및 그 전자 장치에 관한 것이다.
The present invention relates to an image capturing method and an electronic device thereof.
최근 들어 멀티미디어 기술이 발전하면서 다양한 기능을 갖는 전자 장치들이 등장하고 있다. 이러한 전자 장치들은 하나 또는 그 이상의 기능을 복합적으로 수행하는 컨버젼스 기능을 갖는 것이 일반적이다.Recently, with the development of multimedia technology, electronic devices having various functions have appeared. These electronic devices generally have a convergence function that performs one or more functions in combination.
더욱이 전자 장치들로는 소위 '스마트 폰'이라 대별되는 이동 단말기가 주류를 이루고 있다. 특히 이러한 이동 단말기는 대화면 터치 방식의 디스플레이 모듈을 구비하고 있으며, 상대방과의 통신이라는 기본적인 기능 이외에 고화소 카메라 모듈을 구비하고 있어 정지 영상 및 동영상 촬영이 가능하다. 또한 음악, 동영상 등 멀티미디어 콘텐츠를 재생할 수 있고, 네트워크 망에 접속하여 웹 서핑을 수행할 수도 있다.Moreover, mobile terminals, which are broadly classified as so-called'smart phones', are becoming mainstream as electronic devices. In particular, such a mobile terminal is equipped with a display module of a large-screen touch type, and is equipped with a high-pixel camera module in addition to the basic function of communication with a counterpart, so that still images and moving pictures can be captured. In addition, multimedia contents such as music and video can be played, and web surfing can be performed by accessing a network.
이러한 전자 장치는 점차 고성능 프로세서를 구비함으로써 다양한 컨버젼스 기능을 좀더 빠르게 수행하도록 진보되고 있어, 상대방과의 통신이라는 주된 기능은 오히려 부가 기능으로 여겨질 정도로 눈부신 발전을 거듭하고 있다.
These electronic devices are gradually advanced to perform various convergence functions more quickly by having a high-performance processor, and the main function of communication with the counterpart is rather remarkably developed to the extent that it is regarded as an additional function.
본 발명의 일 실시 예에 따르면, 특정 상황에 대응하여 작동되는 이미지 촬영 방법 및 그 전자 장치를 제공할 수 있다.According to an embodiment of the present invention, an image capturing method and an electronic device that operate in response to a specific situation may be provided.
본 발명의 다른 실시 예에 따르면, 수준 높은 또는 임의의 수준 낮은 결과물을 획득할 수 있는 이미지 촬영 방법 및 그 전자 장치를 제공할 수 있다.According to another embodiment of the present invention, an image capturing method and an electronic device thereof capable of obtaining a high-level or low-level result may be provided.
본 발명의 또 다른 실시 예에 따르면, 포커싱 레벨을 직관적으로 운용할 수 있는 이미지 촬영 방법 및 그 전자 장치를 제공할 수 있다.
According to another embodiment of the present invention, an image capturing method and an electronic device thereof capable of intuitively operating a focusing level may be provided.
본 발명의 일 실시 예에 따르면, 터치 스크린을 포함하는 전자 장치의 동작 방법에 있어서, 카메라 장치를 통하여 수신한 이미지를 디스플레이하는 과정과, 상기 이미지의 제1영역에 대한 제1터치 이벤트를 감지하는 과정과, 상기 제1영역에 대한 자동 포커싱 화면 및 상기 카메라 장치의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이하는 과정과, 상기 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하는 과정 및 상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제1영역에 대한 상기 카메라 장치의 렌즈의 포커싱 레벨을 조절하는 과정을 포함하는 방법을 제공할 수 있다.According to an embodiment of the present invention, in a method of operating an electronic device including a touch screen, a process of displaying an image received through a camera device, and detecting a first touch event for a first area of the image A process, a process of displaying an automatic focusing screen for the first area and a user interface object indicating a focusing level of a lens of the camera device, a process of detecting a second touch event for the user interface object, and the second It is possible to provide a method including a process of adjusting a focusing level of a lens of the camera device with respect to the first region in response to a position of the user interface object according to a touch event.
본 실시 예에 따르면, 상기 카메라 장치의 렌즈의 이동 거리와 대응하는 상기 포커싱 레벨을 단계별로 대응시켜 저장하는 과정을 추가로 포함할 수 있다.According to the present embodiment, a process of storing the focusing level corresponding to the moving distance of the lens of the camera device in step by step may be further included.
본 실시 예에 따르면, 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 포커싱 레벨이 기저장된 단계별로 이동하거나 또는 기저장된 특정 단계로 이동할 수 있다.According to the present embodiment, the focusing level may move to a pre-stored step or to a pre-stored specific step in response to the position of the user interface object.
본 실시 예에 따르면, 상기 자동 포커싱 화면은 상기 이미지의 디스플레이 화면보다 작고, 상기 사용자 인터페이스 오브젝트는 상기 이미지 디스플레이 화면상에 디스플레이될 수 있다.According to the present embodiment, the automatic focusing screen may be smaller than the display screen of the image, and the user interface object may be displayed on the image display screen.
본 실시 예에 따르면, 상기 제1터치 이벤트는 상기 터치 스크린에서 탭(tab) 동작, 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.According to the present embodiment, the first touch event is a tab operation, a flicking operation, a touch and drag operation, a tab and hold operation, and a multiplex operation on the touch screen. It may include at least one of a multi tab operation.
본 실시 예에 따르면, 상기 제1영역에 대한 상기 자동 포커싱 화면은 상기 제1영역에 대한 상기 카메라 장치의 렌즈의 최적의 포커싱을 적용할 수 있다.According to the present embodiment, the automatic focusing screen for the first region may apply an optimal focusing of the lens of the camera device to the first region.
본 실시 예에 따르면, 상기 제2터치 이벤트는 상기 사용자 인터페이스 오브젝트에 대한 탭(tab) 동작, 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.According to the present embodiment, the second touch event is a tab operation, a flicking operation, a touch and drag operation, and a tab and hold operation for the user interface object. , May include at least one of a multi-tab operation.
본 실시 예에 따르면, 상기 카메라 장치는 VCM(Voice Coil Motor) 방식, 피에조(piezo) 방식, liquid 렌즈 방식 중 적어도 하나의 방식을 이용하여 상기 카메라 장치의 렌즈를 이동하거나 전기적 특성에 의한 물성 변화에 따라 상기 포커싱 레벨을 조절할 수 있다.According to this embodiment, the camera device may move the lens of the camera device or change physical properties due to electrical characteristics by using at least one of a Voice Coil Motor (VCM) method, a piezo method, and a liquid lens method. Accordingly, the focusing level can be adjusted.
본 발명의 다른 실시 예에 따르면, 전자 장치에 있어서, 터치 스크린과, 적어도 하나의 포커싱 레벨을 조절하는 카메라 장치와, 메모리 및 적어도 하나의 프로세서를 포함하고, 상기 프로세서는 상기 카메라 장치를 통하여 수신한 이미지를 디스플레이하고, 상기 이미지의 제1영역에 대한 제1터치 이벤트를 감지하고, 상기 제1영역에 대한 자동 포커싱 화면 및 상기 카메라 장치의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이하며, 상기 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하고, 상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제1영역에 대한 상기 카메라 장치의 렌즈의 포커싱 레벨을 조절하는 전자 장치를 제공할 수 있다.According to another embodiment of the present invention, an electronic device includes a touch screen, a camera device that adjusts at least one focusing level, a memory, and at least one processor, wherein the processor is received through the camera device. Display an image, detect a first touch event for a first region of the image, display an automatic focusing screen for the first region and a user interface object indicating a focusing level of a lens of the camera device, and the user Provide an electronic device that detects a second touch event on an interface object and adjusts the focusing level of the lens of the camera device with respect to the first region in response to the position of the user interface object according to the second touch event. I can.
본 실시 예에 따르면, 상기 프로세서는 상기 카메라 장치의 렌즈의 이동 거리와 대응하는 상기 포커싱 레벨을 단계별로 대응시켜 저장할 수 있다.According to the present embodiment, the processor may store the focusing level corresponding to the moving distance of the lens of the camera device in stepwise correspondence.
본 실시 예에 따르면, 상기 프로세서는 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 포커싱 레벨을 기저장된 단계별로 이동하거나 또는 기저장된 특정 단계로 이동할 수 있다.According to the present embodiment, the processor may move the focusing level to a pre-stored step or to a pre-stored specific step in response to the position of the user interface object.
본 실시 예에 따르면, 상기 프로세서는 상기 자동 포커싱 화면을 상기 이미지의 디스플레이 화면보다 작게 하고, 상기 사용자 인터페이스 오브젝트를 상기 이미지 디스플레이 화면상에 디스플레이하도록 제어할 수 있다.According to the present embodiment, the processor may control the automatic focusing screen to be smaller than the display screen of the image and to display the user interface object on the image display screen.
본 실시 예에 따르면, 상기 프로세서는 상기 터치 스크린에서 탭(tab) 동작, 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 상기 제1터치 이벤트로 감지할 수 있다.According to the present embodiment, the processor includes a tab operation, a flicking operation, a touch and drag operation, a tab and hold operation, and a multi-tap operation on the touch screen. At least one of tab) operations may be detected as the first touch event.
본 실시 예에 따르면, 상기 프로세서는 상기 제1영역에 대한 상기 자동 포커싱 화면을 상기 제1영역에 대한 상기 카메라 장치의 렌즈의 최적의 포커싱을 적용할 수 있다.According to the present embodiment, the processor may apply the optimum focusing of the lens of the camera device to the first region to the automatic focusing screen for the first region.
본 실시 예에 따르면, 상기 프로세서는 상기 사용자 인터페이스 오브젝트에 대한 탭(tab) 동작, 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 상기 제2터치 이벤트로 감지할 수 있다.According to the present embodiment, the processor includes a tab operation, a flicking operation, a touch and drag operation, a tab and hold operation, and a multi-tap on the user interface object. At least one of the (multi tab) operations may be detected as the second touch event.
본 실시 예에 따르면, 상기 카메라 장치는 VCM(Voice Coil Motor) 방식, 피에조(piezo) 방식, liquid 렌즈 방식 중 적어도 하나의 방식을 이용하여 상기 카메라 장치의 렌즈를 이동하거나 전기적 특성에 의한 물성 변화에 따라 상기 포커싱 레벨을 조절할 수 있다.
According to this embodiment, the camera device may move the lens of the camera device or change physical properties due to electrical characteristics by using at least one of a Voice Coil Motor (VCM) method, a piezo method, and a liquid lens method. Accordingly, the focusing level can be adjusted.
상술한 다양한 실시 예들에 따르면, 특정 상황에 대응하여 카메라 장치의 렌즈의 포커싱 가능한 단계에 각각 대응하여 원하는 수준의 결과물을 획득할 수 있는 이미지 촬영 방법에 대한 사용자 인터페이스를 제공할 수 있다.
According to the various embodiments described above, a user interface for an image capturing method capable of obtaining a desired level of a result may be provided in response to a focusable step of a lens of a camera device in response to a specific situation.
도 1a는 본 발명의 일 실시 예에 따른 전자 장치의 전면 사시도;
도 1b는 본 발명의 일 실시 예에 따른 전자 장치의 후면 사시도;
도 2a는 본 발명의 일 실시 예에 따른 전자 장치의 블록 구성도;
도 2b는 본 발명의 일 실시 예에 따른 프로세서의 블록 구성도;
도 3a내지 도 3c는 일반 촬영에서의 포커싱 레벨을 조절하는 방법을 설명하는 도면;
도 4a 및 도 4b는 야간 촬영에서의 포커싱 레벨을 조절하는 방법을 설명하는 도면;
도 5는 본 발명의 일 실시 예에 따른 전자 장치의 동작 방법에 대한 흐름도;
도 6은 본 발명의 다른 실시 예에 따른 전자 장치의 동작 방법에 대한 흐름도;
도 7은 본 발명의 또 다른 실시 예에 따른 전자 장치의 동작 방법에 대한 흐름도;
도 8은 본 발명의 다양한 실시 예에 따른 전자 장치의 동작 방법에 대한 흐름도; 및
도 9는 본 발명의 다양한 실시 예에 따른 전자 장치의 동작 방법에 대한 흐름도.1A is a front perspective view of an electronic device according to an embodiment of the present invention;
1B is a rear perspective view of an electronic device according to an embodiment of the present invention;
2A is a block diagram of an electronic device according to an embodiment of the present invention;
2B is a block diagram of a processor according to an embodiment of the present invention;
3A to 3C are diagrams for explaining a method of adjusting a focusing level in general photographing;
4A and 4B are diagrams for explaining a method of adjusting a focusing level in night photography;
5 is a flowchart illustrating a method of operating an electronic device according to an embodiment of the present invention;
6 is a flowchart illustrating a method of operating an electronic device according to another embodiment of the present invention;
7 is a flowchart illustrating a method of operating an electronic device according to another embodiment of the present invention;
8 is a flowchart illustrating a method of operating an electronic device according to various embodiments of the present disclosure; And
9 is a flowchart illustrating a method of operating an electronic device according to various embodiments of the present disclosure.
이하 본 발명의 다양한 실시 예들을 첨부된 도면을 참조하여 상세히 설명한다. 본 발명의 실시 예들을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 실시 예들의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명의 실시 예들의 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings. In describing the embodiments of the present invention, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the embodiments of the present invention, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in the present embodiment and may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the overall contents of the embodiments of the present invention.
본 발명의 일 실시 예를 설명함에 있어, 하나 또는 그 이상의 카메라 모듈을 포함하는 전자 장치에 관하여 설명할 것이다. 전자 장치는 카메라 모듈에 의해 촬영된 이미지 정보를 표시할 수 있는 표시부를 포함할 수 있다.In describing an exemplary embodiment of the present invention, an electronic device including one or more camera modules will be described. The electronic device may include a display unit capable of displaying image information captured by the camera module.
본 발명의 실시 예들을 설명함에 있어, 표시부로써 터치 스크린을 포함하고, 하나 또는 그 이상의 카메라 모듈이 적용될 수 있는 전자 장치를 도시하고 이에 대하여 설명하였으나 이에 국한되지는 않는다. 예컨대, 전자 장치로는 터치 스크린 및 카메라 모듈을 포함하는 다양한 기기, 즉, PDA(Personal Digital Assistant), 랩탑 컴퓨터(Laptop Computer), 모바일 폰(Mobile Phone), 스마트 폰(Smart Phone), 넷북(Netbook), TV(Television), 휴대 인터넷 장치(MID: Mobile Internet Device), 울트라 모바일 PC(UMPC: Ultra Mobile PC), 태블릿 PC(Tablet Personal Computer), 손목시계, 카메라 장치, 네비게이션, MP3 및 웨어러블(wearable) 장치 등 다양한 장치에 적용 가능하다.
In describing embodiments of the present invention, an electronic device including a touch screen as a display unit and to which one or more camera modules can be applied is illustrated and described, but is not limited thereto. For example, electronic devices include various devices including a touch screen and a camera module, that is, a personal digital assistant (PDA), a laptop computer, a mobile phone, a smart phone, and a netbook. ), TV (Television), Mobile Internet Device (MID), Ultra Mobile PC (UMPC), Tablet Personal Computer (Tablet Personal Computer), wristwatch, camera device, navigation, MP3, and wearable ) Applicable to various devices such as devices.
도 1a는 본 발명의 일 실시 예에 따른 전자 장치(100)의 전면 사시도이고, 도 1b는 본 발명의 일 실시 예에 따른 전자 장치(100)의 후면 사시도이다.1A is a front perspective view of an
도 1a 및 도 1b를 참고하면, 전자 장치(100)는 전면(101)에 터치 스크린(190)이 설치될 수 있다. 터치 스크린(190)은 전자 장치(100)로부터 전달받은 전기적 신호를 텍스트, 그래픽, 비디오 등의 영상으로 표시할 수 있다. 또한, 터치 스크린(190)은 터치 패널을 적용하여 데이터 입출력을 동시에 수행할 수 있다. 이러한 터치 스크린(190)은 손가락이나 스타일러스(Stylus)와 같은 입력 수단에 의해 데이터를 수신할 수 있다.1A and 1B, the
일 실시 예에 따르면, 터치 스크린(190)은 용량성, 저항성, 적외선 및 표면 음향파 기술뿐만 아니라 기타 근접 센서 배열 또는 기타 요소들을 포함하는 임의의 멀티 터치 감지 기술을 적용할 수 있다. 터치 스크린(190)은 손가락 또는 스타일러스 등의 접촉에 따른 물리량(예컨대, 정전 용량, 저항 등)의 변화를 통해 터치를 인식하고, 탭(tab), 플리킹(flicking), 터치 앤 드래그(touch and drag), 탭 앤 홀드(tab and hold), 다중 탭(multi tab) 등의 동작을 감지할 수 있다. 더하여, 터치 스크린(190)은 손가락 또는 스타일러스와 같은 입력 수단이 터치 스크린(190)과 일정 거리 내에 근접함을 감지하는 호버링(Hovering) 입력(비접촉 터치 또는 근접 터치라고도 함)을 인식할 수 있다.According to an embodiment, the
터치 스크린(190)의 상측에는 음성을 수신하기 위한 이어 피스(Ear Piece)(102)가 설치될 수 있으며, 이어 피스(102)의 주변에는 근접 센서 또는 조도 센서와 같은 전자 장치(100)의 사용 편의성을 위한 다수의 센서들(103)이 설치될 수 있다.An
일 실시 예에 따르면, 전자 장치(100)는 피사체를 촬영하기 위한 제1카메라 모듈(C1) 및 제2카메라 모듈(C2)을 포함할 수 있다. 제1카메라 모듈(C1)은 전자 장치(100)의 전면(101)에 배치되어 셀프 카메라 기능을 수행하거나, 화상 통화를 위하여 사용될 수 있다. 제2카메라 모듈(C2)은 피사체를 용이하게 촬영하기 위해 전자 장치(100)의 후면(106)에 배치될 수 있다.According to an embodiment, the
일 실시 예에 따르면, 상술한 카메라 모듈들(C1, C2)은 정지 영상 또는 동영상을 촬영할 수 있으며, 이미지 센서를 통하여 수신된 이미지 정보를 터치 스크린(190)을 통하여 출력할 수 있다. 이러한 카메라 모듈들(C1, C2)은 피사체에 대한 자동 포커싱(AF, Auto Focusing) 기능을 수행할 수 있다.According to an embodiment, the above-described camera modules C1 and C2 may capture a still image or a video, and may output image information received through an image sensor through the
일 실시 예에 따르면, 전자 장치(100)는 피사체를 연속적으로 포커싱(Focusing) 하여 사용자가 원하는 시점에 촬영 가능하도록 CAF(Continus Auto Focus) 기능을 수행할 수 있다.According to an embodiment, the
다른 실시 예에 따르면, 전자 장치(100)는 터치 스크린(190)에 표시되는 촬영 이미지의 일정 영역에 대한 터치를 감지하는 경우, 터치된 일정 영역의 이미지에 대한 최적의 포커싱을 수행하는 TAF(Touch Auto Focus) 기능을 수행할 수도 있다.According to another embodiment, when the
다양한 실시 예에 따르면, 전자 장치(100)는 두 개의 카메라 모듈을 포함하고 있으나 이에 국한되지는 않는다. 예컨대, 전자 장치(100)는 하나 또는 그 이상의 카메라 모듈을 구비할 수 있으며, 상술한 카메라 기능 이외에도 다양한 촬영 기법이 적용될 수 있을 것이다.According to various embodiments of the present disclosure, the
일 실시 예에 따르면, 전자 장치(100)는 터치 스크린(190)의 하측에 위치하며 소리를 입력받는 마이크로폰 장치(104) 및 키 버튼들이 배치되는 키패드 장치(105)를 더 포함할 수 있다. 그러나 이에 국한되지는 않으며, 전자 장치(100)는 공지의 여타 부가 기능을 구현하기 위한 다양한 부가 장치들이 더 설치될 수 있을 것이다.
According to an embodiment, the
도 2a는 본 발명의 일 실시 예에 따른 전자 장치(100)의 블록 구성도이다.2A is a block diagram of an
도 2a를 참고하면, 전자 장치(100)는 PDA(Personal Digital Assistant), 랩탑 컴퓨터(Laptop Computer), 모바일 폰(Mobile Phone), 스마트 폰(Smart Phone), 넷북(Netbook), 핸드헬드 컴퓨터(Handheld Computer), 휴대 인터넷 장치(MID: Mobile Internet Device), 미디어 플레이어(Media Player), 울트라 모바일 PC(UMPC: Ultra Mobile PC), 태블릿 PC(Tablet Personal Computer), 노트 PC, 손목시계, 네비게이션, MP3, 카메라 장치와 같은 장치일 수 있다. 또한, 전자 장치(100)는 이러한 장치들 중 두 가지 이상의 기능을 결합한 장치를 포함하는 임의의 장치일 수도 있다.2A, the
일 실시 예에 따르면, 전자 장치(100)는 메모리(110), 프로세서 유닛(Processor Unit)(120), 카메라 장치(130), 센서 장치(140), 무선 통신 장치(150), 오디오 장치(160), 외부 포트 장치(170), 입출력 제어부(180), 터치 스크린(190) 및 입력 장치(200)를 포함할 수 있다. 메모리(110) 및 외부 포트 장치(170)는 다수 개 구성될 수 있다.According to an embodiment, the
각 구성요소에 대해 살펴보면 다음과 같다.Each component is as follows.
프로세서 유닛(120)은 메모리 인터페이스(121), 적어도 하나의 프로세서(processor)(122) 및 주변 장치 인터페이스(123)를 포함할 수 있다. 여기서, 프로세서 유닛(120)에 포함되는 메모리 인터페이스(121), 적어도 하나의 프로세서(122) 및 주변 장치 인터페이스(123)는 적어도 하나의 집적화된 회로로 집적화되거나 별개의 구성요소로 구현될 수 있다.The
메모리 인터페이스(121)는 프로세서(122) 또는 주변 장치 인터페이스(123)와 같은 구성요소의 메모리(110) 접근을 제어할 수 있다.The
주변 장치 인터페이스(123)는 전자 장치(100)의 입출력 주변 장치와 프로세서(122) 및 메모리 인터페이스(121)의 연결을 제어할 수 있다.The
프로세서(122)는 적어도 하나의 소프트웨어 프로그램을 이용하여 전자 장치(100)가 다양한 멀티미디어 서비스를 제공하도록 제어할 수 있다. 프로세서(122)는 메모리(110)에 저장되어 있는 적어도 하나의 프로그램을 실행하여 해당 프로그램에 대응하는 서비스를 제공할 수 있다.The
프로세서(122)는 여러 가지의 소프트웨어 프로그램을 실행하여 전자 장치(100)를 위한 여러 기능을 수행하며 음성 통신, 영상 통신 및 데이터 통신을 위한 처리 및 제어를 수행할 수 있다. 더하여, 프로세서(122)는 메모리(110)에 저장된 소프트웨어 모듈들과 연동하여 본 발명의 실시 예들의 방법을 수행할 수 있다.The
프로세서(122)는 하나 이상의 데이터 프로세서, 이미지 프로세서, 또는 코덱(CODEC)을 포함할 수 있다. 더욱이, 전자 장치(100)는 데이터 프로세서, 이미지 프로세서 또는 코덱을 별도로 구성할 수 있다.The
전자 장치(100)의 다양한 구성요소들은 하나 이상의 통신 버스(참조번호 미기재) 또는 전기적 연결 수단(참조번호 미기재)을 통해서 연결될 수 있다.Various components of the
카메라 장치(130)는 사진, 비디오 클립, 레코딩 등의 카메라 기능을 수행할 수 있다. 카메라 장치(130)는 CCD(Charged Coupled Device) 또는 CMOS(Complementary Metal-Oxide Semiconductor) 등을 포함할 수 있다. 더하여, 카메라 장치(130)는 프로세서(122)가 실행하는 카메라 프로그램에 따라 하드웨어적인 구성의 변경, 예컨대 렌즈 이동, 조리개의 수 등을 조절할 수 있다. 이러한 카메라 장치(130)는 피드백(feedback) 원리를 적용하는 폐회로(closed loop) 방식으로 구현될 수 있다.The
일 실시 예에 따르면, 카메라 장치(130)는 피사체에 대한 촬영을 통해 획득한 수집 영상을 프로세서 유닛(120)으로 제공할 수 있다. 카메라 장치(130)는 광학적 신호를 전기적 신호로 변환하는 이미지 센서, 아날로그 영상 신호를 디지털 영상 신호로 변환하는 영상 처리 장치(Image Signal Processor) 및 영상 처리 장치에서 출력되는 영상 신호를 터치 스크린(190)에 표시할 수 있도록 영상 처리하는 신호 처리 장치(Digital Signal Processor) 등을 포함할 수 있다. 미 도시되었으나, 카메라 장치(130)는 렌즈를 움직이는 엑츄에이터, 엑츄에이터를 구동하는 드라이버 IC 등을 포함할 수 있다. 카메라 장치(130)는 VCM(Voice Coil Motor) 방식, 피에조(piezo) 방식, liquid 렌즈 방식 중 적어도 하나의 방식을 이용하여 카메라 장치(130)의 렌즈를 이동하거나 전기적 특성에 의한 물성 변화를 통해 초점거리를 조절할 수 있다.According to an embodiment, the
센서 장치(140)는 근접 센서, 홀(Hall) 센서, 조도 센서, 모션 센서 등을 포함할 수 있다. 예컨대, 근접 센서는 전자 장치(100)에 근접하는 물체를 감지할 수 있고, 홀 센서는 금속체의 자력을 감지할 수 있다. 또한, 조도 센서는 전자 장치(100) 주변의 빛을 감지하며, 모션 센서는 전자 장치(100)의 움직임을 감지하는 가속도 센서 또는 자이로 센서를 포함할 수 있다. 그러나 이에 국한되지는 않으며, 센서 장치(140)는 공지의 여타 부가 기능을 구현하기 위한 다양한 센서들을 더 포함할 수 있을 것이다. 일 실시 예에 따르면, 센서 장치(140)는 카메라 장치(130)에 포함될 수 있다. 이러한 경우, 카메라 장치(130)는 센서 장치(140)를 통해 피사체와의 거리 및 주변 밝기를 측정할 수 있다.The
무선 통신 장치(150)는 무선 통신을 가능하게 하고, 무선 주파수 송ㆍ수신기 또는 광(예컨대, 적외선) 송ㆍ수신기를 포함할 수 있다. 미 도시하였으나, 무선 통신 장치(150)는 RF IC 유닛(Radio Frequency IC unit)과 기저대역 처리부를 포함할 수 있다. RF IC 유닛은 전자파를 송ㆍ수신할 수 있으며, 기저대역 처리부로부터의 기저대역 신호를 전자파로 변환하여 안테나를 통해 송신할 수 있다.The
RF IC 유닛은 RF 트랜시버(transceiver), 증폭기(amplifier), 튜너(tunor), 오실레이터(oscillator), 디지털 신호 처리기(digital signal processor), CODEC 칩셋(COding DECoding chip set), 가입자 식별 모듈(SIM, Subscriber Identity Module) 카드 등을 포함할 수 있다.The RF IC unit consists of an RF transceiver, an amplifier, a tuner, an oscillator, a digital signal processor, a CODEC chip set, and a subscriber identification module (SIM, Subscriber Identity Module) card, etc.
무선 통신 장치(150)는 통신 네트워크에 따라 GSM(Global System for Mobile Communication) 네트워크, EDGE(Enhanced Data GSM Environment) 네트워크, CDMA(Code Division Multiple Access) 네트워크, W-CDMA(Wideband Code Division Multiple Access) 네트워크, LTE(Long Term Evolution) 네트워크, OFDMA(Orthogonal Frequency Division Multiple Access) 네트워크, Wi-Fi(Wireless Fidelity) 네트워크, WiMax 네트워크, NFC(Near Field Communication) 네트워크, 적외선 통신(Infra Red Communication) 네트워크, Bluetooth 네트워크 중 적어도 하나를 통해 동작하도록 구현될 수 있다. 그러나 이에 국한되지는 않으며, 무선 통신 장치(150)는 이메일(email), 인스턴트 메시징(instant messaging) 또는 단문 문자 서비스(SMS, Short Message Service)용 프로토콜을 이용한 여러 가지의 통신 방식이 적용될 수 있다.Depending on the communication network, the
오디오 장치(160)는 스피커(161) 및 마이크로폰(162)에 연결되어 음성 인식, 음성 복제, 디지털 레코딩 또는 통화 기능 등의 오디오 입력 및 출력 기능을 수행할 수 있다. 오디오 장치(160)는 사용자와 전자 장치(100) 사이의 오디오 인터페이스를 제공할 수 있으며, 프로세서(122)로부터 수신한 데이터 신호를 전기 신호로 변환하며 변환한 전기 신호를 스피커(161)를 통해 출력시킬 수 있다.The
스피커(161)는 전기 신호를 가청 주파수 대역으로 변환하여 출력할 수 있고, 전자 장치(100)의 전방 또는 후방에 배치될 수 있다. 스피커(161)는 하나의 진동 필름에 적어도 하나의 압전체를 부착시킨 플렉서블한 필름 스피커를 포함할 수 있다.The
마이크로폰(162)은 인물이나 기타 음원들로부터 전달된 음파를 전기 신호로 변환할 수 있다. 오디오 장치(160)는 마이크로폰(162)으로부터 전기 신호를 수신하고, 수신한 전기 신호를 오디오 데이터 신호로 변환하며 변환한 오디오 데이터 신호를 프로세서(122)로 전송할 수 있다. 오디오 장치(160)는 전자 장치(100)에 탈부착 가능한 이어폰, 이어셋, 헤드폰 또는 헤드셋을 포함할 수 있다.The
외부 포트 장치(170)는 전자 장치(100)를 상대 전자 장치와 직접 연결하거나, 네트워크(예컨대, 인터넷, 인트라넷, 무선 LAN 등)를 통하여 상대 전자 장치와 간접적으로 연결할 수 있다. 외부 포트 장치(170)는 USB(Universal Serial Bus) 포트 또는 FIREWIRE 포트 등을 포함할 수 있다.The
입출력 제어부(180)는 터치 스크린(190) 및 입력 장치(200) 등의 입출력 장치와 주변 장치 인터페이스(123) 사이에 인터페이스를 제공할 수 있다. 입출력 제어부(180)는 터치 스크린 제어기 및 기타 입력 장치 제어기를 포함할 수 있다.The input/
터치 스크린(190)은 전자 장치(100)와 사용자 간의 입력 및 출력 인터페이스를 제공할 수 있다. 터치 스크린(190)은 터치 감지 기술을 적용하여 사용자의 터치 정보를 프로세서(122)로 전달하고, 프로세서(122)로부터 제공되는 시각 정보, 텍스트, 그래픽 또는 비디오 등을 사용자에게 보여줄 수 있다.The
터치 스크린(190)은 전자 장치(100)의 상태 정보, 사용자가 입력하는 문자, 동화상(moving picture) 및 정화상(still picture)을 표시할 수 있다. 더하여, 터치 스크린(190)은 프로세서(122)에 의해 구동되는 어플리케이션 관련 정보를 표시할 수 있다.The
터치 스크린(190)은 용량성, 저항성, 적외선 및 표면 음향파 기술뿐만 아니라 기타 근접 센서 배열 또는 기타 요소들을 포함하는 임의의 멀티 터치 감지 기술을 적용할 수 있다. 이러한 터치 스크린(190)은 액정 디스플레이(Liquid Crystal Display, LCD), 유기 발광 다이오드(Organic Light-Emitting Diode, OLED), AMOLED(Active Mode Organic Light Emitting Diode), 박막 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display, TFT-LCD), 플렉서블 디스플레이(Flexible Display), 3차원 디스플레이(3D display) 중 적어도 하나를 적용할 수 있다.The
터치 스크린(190)은 손가락 또는 스타일러스 등의 접촉에 따른 물리량(예컨대, 정전 용량, 저항 등)의 변화를 통해 터치를 인식하고, 탭, 플리킹, 터치 앤 드래그, 탭 앤 홀드, 다중 탭 등의 동작을 감지할 수 있다. 또한, 터치 스크린(190)은 손가락 또는 스타일러스와 같은 입력 수단이 터치 스크린(190)과 일정 거리 내에 근접함을 감지하는 호버링 입력(비접촉 터치 또는 근접 터치라고도 함)을 인식하도록 구현될 수 있다.The
입력 장치(200)는 사용자의 선택에 의해 발생하는 입력 데이터를 입출력 제어부(180)를 통해 프로세서(122)로 제공할 수 있다. 입력 장치(200)는 적어도 하나의 하드웨어 버튼을 포함하는 키패드와 터치 정보를 감지하는 터치 패드를 포함할 수 있다.The
입력 장치(200)는 볼륨 제어를 위한 업/다운 버튼을 포함할 수 있으며, 이 밖에도 입력 장치(200)는 해당 기능이 부여된 푸쉬 버튼(push botton), 로커 버튼(locker button), 로커(locker) 스위치, 섬 휠(thumb-wheel), 다이얼(dial), 스틱(stick), 마우스(mouse), 트랙볼(track-ball) 또는 스타일러스 등의 포인터 장치 중 적어도 하나를 포함할 수 있다.The
메모리(110)는 하나 이상의 자기 디스크 저장 장치와 같은 고속 랜덤 액세스 메모리 또는 비휘발성 메모리, 하나 이상의 광 저장 장치 또는 플래시 메모리(예컨대, NAND, NOR)를 포함할 수 있다.The
메모리(110)는 소프트웨어를 저장하는데, 이러한 소프트웨어는 운영 체제 모듈(111), 통신 모듈(112), 그래픽 모듈(113), 사용자 인터페이스 모듈(114), 카메라 프로그램(115), 어플리케이션 모듈(116), 터치 인식 운용 프로그램(117) 및 포커싱 운용 프로그램(118)을 포함할 수 있다. 모듈(module)이란 용어는 명령어들의 집합, 명령어 세트(instruction set) 또는 프로그램(program)으로 표현하기도 한다.The
운영 체제 모듈(111)은 WINDOWS, LINUX, 다윈(Darwin), RTXC, UNIX, OS X, 안드로이드(Android) 또는 VxWorks와 같은 내장 운영 체제를 포함할 수 있으며, 일반적인 시스템 작동(system operation)을 제어하는 여러 가지의 소프트웨어 구성요소를 포함할 수 있다. 이러한 일반적인 시스템 작동의 제어는 메모리 제어 및 관리, 저장 하드웨어(장치) 제어 및 관리, 전력 제어 및 관리 등을 포함할 수 있다. 더하여, 운영 체제 모듈(111)은 여러 가지의 하드웨어(장치)와 소프트웨어 구성요소(모듈) 사이의 통신을 원활하게 하는 기능을 수행할 수 있다.The
통신 모듈(112)은 무선 통신 장치(150) 또는 외부 포트 장치(170)를 통해 컴퓨터, 서버 및 전자 기기 등의 상대 전자 장치와 통신을 가능하게 할 수 있다.The
그래픽 모듈(113)은 터치 스크린(190)에 그래픽을 제공하고 표시하기 위한 여러 가지 소프트웨어 구성요소를 포함할 수 있다. 그래픽(graphics)이란 용어는 텍스트(text), 웹 페이지(web page), 아이콘(icon), 디지털 이미지(digital image), 비디오(video) 및 애니메이션(animation) 등을 의미할 수 있다.The
사용자 인터페이스 모듈(114)은 사용자 인터페이스에 관련한 여러 가지 소프트웨어 구성요소를 포함할 수 있다. 사용자 인터페이스 모듈(114)은 프로세서(122)에 의해 구동되는 어플리케이션 관련 정보를 터치 스크린(190)에 표시하도록 제어할 수 있다. 또한, 사용자 인터페이스 모듈(114)은 사용자 인터페이스의 상태가 어떻게 변경되는지 또는 사용자 인터페이스 상태의 변경이 어떤 조건에서 이루어지는지 등에 대한 내용을 포함할 수 있다.The
카메라 프로그램(115)은 카메라 기능을 수행하기 위한 여러 가지 소프트웨어 구성요소를 포함할 수 있다.The
어플리케이션 모듈(116)은 전자 장치(100)에 설치된 적어도 하나의 어플리케이션에 대한 소프트웨어 구성요소를 포함할 수 있다. 이러한 어플리케이션은 브라우저(browser), 이메일(e-mail), 폰북(Phone Book), 게임(Game), 단문 메시지 서비스(Short Message Service), 멀티미디어 메시지 서비스(Multimedia Messaging Service), SNS(Social Networking Service), 즉석 메시지(instant message), 모닝콜(morning call), MP3(MPEG Layer 3), 일정관리(Scheduler), 그림판, 카메라(Camera), 워드 프로세싱(word processing), 키보드 에뮬레이션(keyboard emulation), 음악 플레이어(music player), 어드레스 북(address book), 접촉 리스트(touch list), 위젯(wideget), 디지털 저작권 관리(DRM, Digital Right Management), 음성 인식(voice recognition), 음성 복제, 위치 결정 기능(position determining function), 위치 기반 서비스(location based service) 등을 포함할 수 있다. 어플리케이션(application)이란 용어는 응용프로그램으로 표현하기도 한다.The
터치 인식 운용 프로그램(117)은 터치 스크린(190)에서 감지하는 터치 정보(예컨대, 터치 및 드래그 등)를 인식하기 위한 소프트웨어 구성요소를 포함할 수 있다.The touch recognition operation program 117 may include a software component for recognizing touch information (eg, touch and drag) sensed by the
포커싱 운용 프로그램(118)은 오토 포커싱 또는 수동 포커싱을 제어하기 위한 관련 프로세스 및 명령어들을 포함할 수 있다. 포커싱 운용 프로그램(118)은 카메라 장치(130)의 렌즈의 이동 거리 또는 다양한 방법에 대응하는 포커싱 레벨을 단계별로 대응시켜 저장할 수 있다.The focusing
프로세서 유닛(120)은 상술한 모듈 이외에 추가적인 모듈(명령어들)을 더 포함할 수 있다.The
전자 장치(100)의 다양한 기능들은 하나 이상의 프로세싱(processing) 또는 어플리케이션 특정 집적 회로(ASIC, Application Specific Integrated Circuit)를 포함하는 하드웨어 또는 소프트웨어로 실행될 수 있다.Various functions of the
미 도시하였으나, 전자 장치(100)는 전자 장치(100)에 포함된 여러 가지 구성요소에 전력을 공급하는 전력 시스템을 포함할 수 있다. 전력 시스템은 전원(power source)(교류 전원이나 배터리), 전력 오류 검출 회로, 전력 컨버터(converter), 전력 인버터(inverter), 충전 장치 또는 전력 상태 표시 장치(발광 다이오드)를 포함할 수 있다. 더하여 전자 장치(100)는 전력의 생성, 관리 및 분배 기능을 수행하는 전력 관리 및 제어 장치를 포함할 수 있다.Although not shown, the
본 실시 예에서는 전자 장치(100)의 구성요소를 도시하고 설명하였으나 이에 국한되지는 않는다. 예컨대, 전자 장치(100)는 본 도면에서 도시한 것보다 많은 개수의 구성요소를 가지거나, 또는 더 적은 개수의 구성요소를 가질 수 있다.
In the present exemplary embodiment, components of the
도 2b는 본 발명의 일 실시 예에 따른 프로세서(122)의 블록 구성도이다.2B is a block diagram of a
도 2b를 참고하면, 프로세서(122)는 어플리케이션 구동부(210), 터치 인식 제어부(220), 포커싱 제어부(230) 및 표시 제어부(240)를 포함할 수 있다.Referring to FIG. 2B, the
일 실시 예에 따르면, 프로세서(122)의 구성요소들은 별개의 모듈들로 이루어질 수 있지만, 다른 실시 예에서는 하나의 모듈 내에서 소프트웨어의 구성요소들로서 포함될 수도 있다.According to an embodiment, the components of the
어플리케이션 구동부(210)는 메모리(110)에 저장된 적어도 하나의 어플리케이션 모듈(116)을 실행하여 해당 어플리케이션에 대응하는 서비스를 제공할 수 있다.The
일 실시 예에 따르면, 어플리케이션 구동부(210)는 카메라 프로그램(115)을 로딩(loading)하여 카메라 기능을 조작하기 위한 사용자 인터페이스를 터치 스크린(190)에 그래픽으로 표시하도록 제어할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 전자 장치(100)는 특정 어플리케이션을 실행하거나 또는 특정 키의 입력 등과 같은 카메라 촬영 모드 진입 이벤트에 따라 카메라 촬영 모드로 진입할 수 있다. 카메라 촬영 모드로 진입하는 경우, 전자 장치(100)는 도 3a에 도시한 바와 같이 카메라 장치(130)를 통하여 수신한 배경이미지(300)를 터치 스크린(190)에 출력할 수 있다. 더하여, 터치 스크린(190)에 출력되는 배경이미지(300)를 촬영하기 위한 촬영 버튼(310)을 표시할 수 있을 것이다. 촬영 버튼(310)은 손가락(F) 또는 터치 펜과 같은 입력 수단에 의해 선택되는 경우, 현재 출력되는 배경 이미지(300)를 촬영할 수 있다. 더하여, 피사체에 대한 정지 영상 또는 동영상을 촬영할 수 있으며, 이외에도 다양한 카메라 기능을 수행할 수 있을 것이다.According to an embodiment, the
터치 인식 제어부(220)는 메모리(110)에 저장된 터치 인식 운용 프로그램(117)을 실행하여 터치 스크린(190)에 입력되는 터치 이벤트를 감지할 수 있다. 여기서, 터치 이벤트는 터치 스크린(190)에서 탭(tab) 동작, 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.The
일 실시 예에 따르면, 터치 인식 제어부(220)는 카메라 촬영 모드에서 터치 스크린(190)의 터치 정보를 포커싱 제어부(230)로 제공할 수 있다. 터치 인식 제어부(220)는 TAF(Touch Auto Focus) 기능 또는 MF(Manual Focus) 기능을 위한 터치 정보를 수집할 수 있다.According to an embodiment, the touch
포커싱 제어부(230)는 메모리(110)에 저장된 포커싱 운용 프로그램(118)을 실행하여 피사체에 대한 포커싱 기능을 수행할 수 있다.The focusing
일 실시 예에 따르면, 포커싱 제어부(230)는 터치 인식 제어부(220)에서 제공받은 터치 정보를 기반으로 TAF 기능 또는 MF 기능을 수행할 수 있다. 예컨대, 포커싱 제어부(230)는 도 3a와 같은 상태에서 터치 스크린(190)에 디스플레이된 배경이미지(300)의 일정 영역을 터치하는 경우, TAF 기능을 수행하여 일정 영역에 대한 포커싱 화면(320)을 표시할 수 있으며, MF 기능을 수행하여 일정 영역에 대한 카메라 장치(130)의 포커싱 레벨을 나타내는 포커싱 레벨 오브젝트(330)를 표시할 수 있다(도 3b 참조). 이러한 포커싱 제어부(230)는 카메라 장치(130)의 렌즈의 이동 거리 또는 초점거리와 대응하는 포커싱 레벨을 단계별로 대응시켜 저장할 수 있다.According to an embodiment, the focusing
일 실시 예에 따르면, 포커싱 레벨 오브젝트(330)는 카메라 장치(130)의 렌즈의 이동거리를 나타내는 이동거리 표시바(333)와 현재의 카메라 장치(130)의 렌즈 위치를 나타내는 렌즈 위치 표시자(331)로 구성될 수 있다. 예컨대, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(331)를 터치 및 드래그하여 포커싱 화면(320)에 대한 포커싱 레벨을 조절할 수 있다(도 3c 참조). 이러한 렌즈 위치 표시자(331)는 이동거리 표시바(333) 영역 내에서 이동할 수 있으며, 단계별로 이동 또는 특정 단계로 이동이 가능하다. 이러한 방식으로 사용자는 배경이미지(300)의 일정 영역의 포커싱 레벨을 임의로 조절할 수 있다.According to an embodiment, the focusing
다른 실시 예에 따르면, 포커싱 제어부(230)는 야간 촬영 또는 동영상 촬영 모드에서도 포커싱 레벨을 조절할 수 있다.According to another embodiment, the focusing
도 4a 및 도 4b는 야간 촬영에서의 포커싱 레벨을 조절하는 방법을 설명하는 도면이다.4A and 4B are diagrams for explaining a method of adjusting a focusing level in night photography.
도 4a에 도시한 바와 같이, 전자 장치(100)는 카메라 촬영 모드로 진입한 후 카메라 장치(130)를 통해 배경이미지(400)를 터치 스크린(190)에 출력할 수 있다. 마찬가지로, 전자 장치(100)는 배경 이미지(400)의 일정 영역에 대한 터치를 감지한 경우, TAF 기능을 수행하여 일정 영역에 대한 포커싱 화면(410)을 표시할 수 있다. 그러나 빛이 부족한 야간의 경우, 전자 장치(100)는 일정 영역에 대한 최적의 포커싱을 수행하지 못하기 때문에 이러한 경우, 포커싱 레벨 오브젝트(420)를 이용하여 포커싱 레벨을 조절할 수 있다.As shown in FIG. 4A, after entering the camera photographing mode, the
도 4b에 도시한 바와 같이, 사용자는 포커싱 레벨 오브젝트(420)의 렌즈 위치 표시자(421)를 터치 또는 터치 및 드래그하여 해당 영역에 대한 포커싱 레벨을 조절할 수 있다. 예컨대, 사용자는 카메라 장치(130)의 렌즈 위치와 매칭되는 초점거리에 대한 대략의 정보를 이용하여 포커싱 레벨을 조절할 수 있을 것이다. 그러나 이에 국한되지는 않으며, 일반 환경, 저조도 환경외 다양한 환경에서 동영상 촬영 모드에서의 포커싱 레벨을 조절하여 사물의 거리에 따라 화면이 꿀렁이거나 포커싱을 잡고자 할 때 잡지 못하는 현상 등을 해결할 수 있을 것이다. 또한, 일반 환경에서도 포커싱을 원하는 수준으로 흐리게 하거나 순간적으로 원하는 수준으로 변하는 포커싱이 포함된 동영상 촬영이 가능하게 된다.As shown in FIG. 4B, the user may adjust the focusing level for the corresponding region by touching or touching and dragging the
표시 제어부(230)는 메모리(110)에 저장된 사용자 인터페이스 모듈(114)을 실행하여 터치 스크린(190)에 그래픽으로 사용자 인터페이스를 표시할 수 있다. 표시 제어부(230)는 어플리케이션 구동부(210)에서 구동되는 어플리케이션 정보 및 포커싱 화면을 터치 스크린(190)에 디스플레이할 수 있도록 제어할 수 있다.
The
도 5는 본 발명의 일 실시 예에 따른 전자 장치(100)의 동작 방법에 대한 흐름도이다.5 is a flowchart illustrating a method of operating the
도 5를 참고하면, 전자 장치(100)는 500과정에서 카메라 장치(130)를 통하여 수신한 이미지를 디스플레이할 수 있다.Referring to FIG. 5, the
일 실시 예에 따르면, 전자 장치(100)는 특정 어플리케이션을 실행하거나 또는 특정 키의 입력 등과 같은 카메라 촬영 모드 진입 이벤트에 따라 카메라 촬영 모드로 진입할 수 있다. 카메라 촬영 모드로 진입하는 경우, 전자 장치(100)는 도 3a에 도시한 바와 같이 카메라 장치(130)를 통하여 수신한 배경이미지(300)를 터치 스크린(190)에 출력할 수 있을 것이다.According to an embodiment, the
그 다음, 전자 장치(100)는 510과정에서 디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트의 감지 여부를 결정할 수 있다.Then, the
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)의 제1일정 영역에 입력되는 제1터치 이벤트를 감지할 수 있다. 여기서, 제1터치 이벤트는 터치 스크린(190)에서 탭(tab) 동작, 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 터치 인식 제어부(220)는 카메라 촬영 모드에서 터치 스크린(190)의 터치 정보를 포커싱 제어부(230)로 제공할 수 있다. 터치 인식 제어부(220)는 TAF(Touch Auto Focus) 기능 또는 MF(Manual Focus) 기능을 위한 터치 정보를 수집할 수 있다.According to an embodiment, the touch
디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트를 감지한 경우, 전자 장치(100)는 520과정에서 제1영역에 대한 자동 포커싱 화면 및 카메라 장치(130)의 렌즈의 포커싱 레벨을 나타내는 오브젝트를 디스플레이할 수 있다.When detecting the first touch event for the first area of the displayed image, the
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(230)는 터치 인식 제어부(220)에서 제공받은 터치 정보에 대응하여 TAF 기능 또는 MF 기능을 수행할 수 있다. 예컨대, 포커싱 제어부(230)는 도 3a와 같은 상태에서 터치 스크린(190)에 디스플레이된 배경이미지(300)의 제1일정 영역을 터치하는 경우, TAF 기능을 수행하여 제1일정 영역에 대한 포커싱 화면(320)을 표시할 수 있으며, MF 기능을 수행하여 제1일정 영역에 대한 카메라 장치(130)의 포커싱 레벨을 나타내는 포커싱 레벨 오브젝트(330)를 표시할 수 있다(도 3b 참조). 이러한 포커싱 제어부(230)는 카메라 장치(130)의 렌즈의 이동 거리와 대응하는 포커싱 레벨을 단계별로 대응시켜 저장할 수 있다.According to an embodiment, the focusing
일 실시 예에 따르면, 포커싱 레벨 오브젝트(330)는 카메라 장치(130)의 렌즈의 이동거리를 나타내는 이동거리 표시바(333)와 현재의 카메라 장치(130)의 렌즈 위치를 나타내는 렌즈 위치 표시자(331)로 구성될 수 있다.According to an embodiment, the focusing
그 다음, 전자 장치(100)는 530과정에서 디스플레이된 오브젝트에 대한 제2터치 이벤트 감지 여부를 결정할 수 있다.Then, the
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)에 디스플레이된 포커싱 레벨 오브젝트(330)에 대한 제2터치 이벤트를 감지할 수 있다. 여기서, 제2터치 이벤트는 터치 스크린(190)에서 탭(tab) 동작, 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.According to an embodiment, the touch
일 실시 예에 따르면, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(331)를 터치 및 드래그하여 렌즈 위치 표시자(331)를 이동시킬 수 있다.According to an embodiment, the user may move the
디스플레이된 오브젝트에 대한 제2터치 이벤트를 감지한 경우, 전자 장치(100)는 540과정에서 제2터치 이벤트에 따른 오브젝트의 위치에 대응하여 제1영역에 대한 카메라 장치(130)의 렌즈의 포커싱 레벨을 조정할 수 있다.When detecting the second touch event for the displayed object, the
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(220)는 렌즈 위치 표시자(331)의 움직임에 따라 포커싱 레벨을 조절할 수 있다. 예컨대, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(331)를 터치 및 드래그하여 포커싱 화면(320)에 대한 포커싱 레벨을 조절할 수 있다(도 3c 참조). 이러한 렌즈 위치 표시자(331)는 이동거리 표시바(333) 영역 내에서 이동할 수 있으며, 단계별로 이동 또는 특정 단계로 이동이 가능하다. 이러한 방식으로 사용자는 배경이미지(300)의 제1일정 영역의 포커싱 레벨을 임의로 조절할 수 있다.According to an embodiment, the focusing
이러한 각 과정에 대한 명령어 세트는 상술한 메모리(110)에 하나 이상의 모듈로 저장될 수 있다. 이 경우, 메모리(110)에 저장되어 있는 모듈은 하나 이상의 프로세서(122)에 의하여 실행될 수 있다.
The instruction set for each of these processes may be stored as one or more modules in the above-described
도 6은 본 발명의 다른 실시 예에 따른 전자 장치(100)의 동작 방법에 대한 흐름도이다.6 is a flowchart illustrating a method of operating the
도 6을 참고하면, 전자 장치(100)는 600과정에서 카메라 장치(130)를 통하여 수신한 이미지를 디스플레이할 수 있다.Referring to FIG. 6, the
일 실시 예에 따르면, 전자 장치(100)는 특정 어플리케이션을 실행하거나 또는 특정 키의 입력 등과 같은 카메라 촬영 모드 진입 이벤트에 따라 카메라 촬영 모드로 진입할 수 있다. 카메라 촬영 모드로 진입하는 경우, 전자 장치(100)는 도 4a에 도시한 바와 같이 카메라 장치(130)를 통하여 수신한 배경이미지(400)를 터치 스크린(190)에 출력할 수 있을 것이다.According to an embodiment, the
그 다음, 전자 장치(100)는 610과정에서 디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트의 감지 여부를 결정할 수 있다.Then, the
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)의 제1일정 영역에 입력되는 제1터치 이벤트를 감지할 수 있다. 여기서, 제1터치 이벤트는 터치 스크린(190)에서 탭(tab) 동작, 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 터치 인식 제어부(220)는 카메라 촬영 모드에서 터치 스크린(190)의 터치 정보를 포커싱 제어부(230)로 제공할 수 있다. 터치 인식 제어부(220)는 TAF(Touch Auto Focus) 기능 또는 MF(Manual Focus) 기능을 위한 터치 정보를 수집할 수 있다.According to an embodiment, the touch
디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트를 감지한 경우, 전자 장치(100)는 620과정에서 주변 밝기가 일정 밝기 미만인지 여부를 결정할 수 있다.When detecting the first touch event for the first area of the displayed image, the
일 실시 예에 따르면, 전자 장치(100)는 조도 센서와 같은 카메라 장치(130)의 센서 장치(140)를 통해 전자 장치(100)의 주변 밝기를 측정할 수 있다.According to an embodiment, the
주변 밝기가 일정 밝기 이상인 경우, 전자 장치(100)는 630과정에서 제1영역에 대한 자동 포커싱 화면을 디스플레이할 수 있다.When the ambient brightness is greater than or equal to a predetermined brightness, the
일 실시 예에 따르면, 포커싱 제어부(220)는 주변 밝기가 일정 밝기 이상인 경우, 제1영역에 대한 TAF 기능을 수행하여 제1영역에 대한 포커싱 화면을 표시할 수 있을 것이다.According to an embodiment, when the surrounding brightness is greater than or equal to a predetermined brightness, the focusing
주변 밝기가 일정 밝기 미만인 경우, 전자 장치(100)는 640과정에서 제1영역에 대한 자동 포커싱 화면 및 카메라 장치(130)의 렌즈의 포커싱 레벨을 나타내는 오브젝트를 디스플레이할 수 있다.When the ambient brightness is less than a certain brightness, the
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(230)는 터치 인식 제어부(220)에서 제공받은 터치 정보에 대응하여 TAF 기능 또는 MF 기능을 수행할 수 있다. 예컨대, 포커싱 제어부(230)는 도 4a와 같은 상태에서 터치 스크린(190)에 디스플레이된 배경이미지(400)의 제1일정 영역을 터치하는 경우, TAF 기능을 수행하여 제1일정 영역에 대한 포커싱 화면(410)을 표시할 수 있으며, MF 기능을 수행하여 제1일정 영역에 대한 카메라 장치(130)의 포커싱 레벨을 나타내는 포커싱 레벨 오브젝트(420)를 표시할 수 있다. 이러한 포커싱 제어부(230)는 카메라 장치(130)의 렌즈의 위치 또는 포커싱 거리에 대응하는 포커싱 레벨을 단계별로 대응시켜 저장할 수 있다.According to an embodiment, the focusing
일 실시 예에 따르면, 포커싱 레벨 오브젝트(420)는 카메라 장치(130)의 렌즈의 이동거리 또는 포커싱 레벨을 나타내는 이동거리 표시바(423)와 현재의 카메라 장치(130)의 렌즈 위치 또는 포커싱 레벨을 나타내는 렌즈 위치 표시자(421)로 구성될 수 있다.According to an embodiment, the focusing
그 다음, 전자 장치(100)는 650과정에서 디스플레이된 오브젝트에 대한 제2터치 이벤트 감지 여부를 결정할 수 있다.Next, the
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)에 디스플레이된 포커싱 레벨 오브젝트(420)에 대한 제2터치 이벤트를 감지할 수 있다. 여기서, 제2터치 이벤트는 터치 스크린(190)에서 탭(tab) 동작, 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.According to an embodiment, the touch
일 실시 예에 따르면, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(421)를 터치 및 드래그하여 렌즈 위치 표시자(421)를 이동시킬 수 있다.According to an embodiment, the user may move the
디스플레이된 오브젝트에 대한 제2터치 이벤트를 감지한 경우, 전자 장치(100)는 660과정에서 제2터치 이벤트에 따른 오브젝트의 위치에 대응하여 제1영역에 대한 카메라 장치(130)의 렌즈의 포커싱 레벨을 조정할 수 있다.When detecting the second touch event for the displayed object, the
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(220)는 렌즈 위치 표시자(421)의 움직임에 따라 포커싱 레벨을 조절할 수 있다. 예컨대, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(421)를 터치 또는 터치 및 드래그하여 포커싱 화면(410)에 대한 포커싱 레벨을 조절할 수 있다(도 4b 참조). 이러한 렌즈 위치 표시자(421)는 이동거리 표시바(423) 영역 내에서 이동할 수 있으며, 단계별로 이동 또는 특정 단계로 이동이 가능하다. 이러한 방식으로 사용자는 배경이미지(400)의 제1일정 영역의 포커싱 레벨을 임의로 조절할 수 있다.According to an embodiment, the focusing
다양한 실시 예에 따르면, 전자 장치(100)는 상술한 방식으로 주변의 밝기를 확인하여 최적의 포커싱을 수행할 수 없는 상태에서는 수동 포커스 기능을 활성화하도록 할 수 있다.According to various embodiments of the present disclosure, the
이러한 각 과정에 대한 명령어 세트는 상술한 메모리(110)에 하나 이상의 모듈로 저장될 수 있다. 이 경우, 메모리(110)에 저장되어 있는 모듈은 하나 이상의 프로세서(122)에 의하여 실행될 수 있다.
The instruction set for each of these processes may be stored as one or more modules in the above-described
도 7은 본 발명의 또 다른 실시 예에 따른 전자 장치(100)의 동작 방법에 대한 흐름도이다.7 is a flowchart illustrating a method of operating the
도 7을 참고하면, 전자 장치(100)는 700과정에서 카메라 장치(130)를 통하여 수신한 이미지를 디스플레이할 수 있다.Referring to FIG. 7, the
일 실시 예에 따르면, 전자 장치(100)는 특정 어플리케이션을 실행하거나 또는 특정 키의 입력 등과 같은 카메라 촬영 모드 진입 이벤트에 따라 카메라 촬영 모드로 진입할 수 있다. 카메라 촬영 모드로 진입하는 경우, 전자 장치(100)는 카메라 장치(130)를 통하여 수신한 배경이미지(300)를 터치 스크린(190)에 출력할 수 있을 것이다.According to an embodiment, the
그 다음, 전자 장치(100)는 710과정에서 디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트의 감지 여부를 결정할 수 있다.Then, the
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)의 제1일정 영역에 입력되는 제1터치 이벤트를 감지할 수 있다. 여기서, 제1터치 이벤트는 터치 스크린(190)에서 탭(tab) 동작, 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 터치 인식 제어부(220)는 카메라 촬영 모드에서 터치 스크린(190)의 터치 정보를 포커싱 제어부(230)로 제공할 수 있다. 터치 인식 제어부(220)는 TAF(Touch Auto Focus) 기능 또는 MF(Manual Focus) 기능을 위한 터치 정보를 수집할 수 있다.According to an embodiment, the touch
디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트를 감지한 경우, 전자 장치(100)는 720과정에서 동영상 촬영 모드인지 여부를 결정할 수 있다.When detecting the first touch event for the first region of the displayed image, the
일 실시 예에 따르면, 전자 장치(100)는 현재 카메라 촬영 모드가 일반 촬영 모드인지 또는 동영상 촬영 모드인지 여부를 확인할 수 있다.According to an embodiment, the
동영상 촬영 모드가 아닌 경우, 전자 장치(100)는 730과정에서 제1영역에 대한 자동 포커싱 화면을 디스플레이할 수 있다.When not in the video capturing mode, the
일 실시 예에 따르면, 포커싱 제어부(220)는 일반 촬영 모드인 경우, 제1영역에 대한 TAF 기능을 수행하여 제1영역에 대한 포커싱 화면을 표시할 수 있을 것이다.According to an embodiment, in the general photographing mode, the focusing
동영상 촬영 모드인 경우, 전자 장치(100)는 740과정에서 제1영역에 대한 자동 포커싱 화면 및 카메라 장치(130)의 렌즈의 포커싱 레벨을 나타내는 오브젝트를 디스플레이할 수 있다.In the video capturing mode, the
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(230)는 터치 인식 제어부(220)에서 제공받은 터치 정보에 대응하여 TAF 기능 또는 MF 기능을 수행할 수 있다. 예컨대, 포커싱 제어부(230)는 도 3b와 같이 터치 스크린(190)에 디스플레이된 배경이미지(300)의 제1일정 영역을 터치하는 경우, TAF 기능을 수행하여 제1일정 영역에 대한 포커싱 화면(320)을 표시할 수 있으며, MF 기능을 수행하여 제1일정 영역에 대한 카메라 장치(130)의 포커싱 레벨을 나타내는 포커싱 레벨 오브젝트(330)를 표시할 수 있다. 이러한 포커싱 제어부(230)는 카메라 장치(130)의 렌즈의 이동 거리와 대응하는 포커싱 레벨을 단계별로 대응시켜 저장할 수 있다.According to an embodiment, the focusing
일 실시 예에 따르면, 포커싱 레벨 오브젝트(330)는 카메라 장치(130)의 렌즈의 이동거리 또는 포커싱 레벨을 나타내는 이동거리 표시바(333)와 현재의 카메라 장치(130)의 렌즈 위치 또는 포커싱 레벨을 나타내는 렌즈 위치 표시자(331)로 구성될 수 있다.According to an embodiment, the focusing
그 다음, 전자 장치(100)는 750과정에서 디스플레이된 오브젝트에 대한 제2터치 이벤트 감지 여부를 결정할 수 있다.Then, the
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)에 디스플레이된 포커싱 레벨 오브젝트(330)에 대한 제2터치 이벤트를 감지할 수 있다. 여기서, 제2터치 이벤트는 터치 스크린(190)에서 탭(tab) 동작, 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.According to an embodiment, the touch
일 실시 예에 따르면, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(331)를 터치 또는 터치 및 드래그하여 렌즈 위치 표시자(331)를 이동시킬 수 있다.According to an embodiment, the user may move the
디스플레이된 오브젝트에 대한 제2터치 이벤트를 감지한 경우, 전자 장치(100)는 760과정에서 제2터치 이벤트에 따른 오브젝트의 위치에 대응하여 제1영역에 대한 카메라 장치(130)의 렌즈의 포커싱 레벨을 조정할 수 있다.When detecting a second touch event for the displayed object, the
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(220)는 렌즈 위치 표시자(331)의 움직임에 따라 포커싱 레벨을 조절할 수 있다. 예컨대, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(331)를 터치 또는 터치 및 드래그하여 포커싱 화면(320)에 대한 포커싱 레벨을 조절할 수 있다(도 3c 참조). 이러한 렌즈 위치 표시자(331)는 이동거리 표시바(333) 영역 내에서 이동할 수 있으며, 단계별로 이동 또는 특정 단계로 이동이 가능하다. 이러한 방식으로 사용자는 배경이미지(300)의 제1일정 영역의 포커싱 레벨을 임의로 조절할 수 있다.According to an embodiment, the focusing
다양한 실시 예에 따르면, 전자 장치(100)는 상술한 방식으로 동영상 촬영 모드인 경우 물체 간의 거리에 따라 화면이 꿀렁이는 현상을 미연에 방지할 수 있을 것이다. 또한, 최적의 포커싱을 수행할 수 없는 상태에서는 수동 포커스 기능을 활성화하도록 할 수 있다. 더하여, 원하는 수준만큼 포커싱이 순간적으로 변하는 동영상을 촬영할 수 있다.According to various embodiments of the present disclosure, in the case of the moving picture photographing mode in the above-described manner, the
이러한 각 과정에 대한 명령어 세트는 상술한 메모리(110)에 하나 이상의 모듈로 저장될 수 있다. 이 경우, 메모리(110)에 저장되어 있는 모듈은 하나 이상의 프로세서(122)에 의하여 실행될 수 있다.
The instruction set for each of these processes may be stored as one or more modules in the above-described
도 8은 본 발명의 다양한 실시 예에 따른 전자 장치(100)의 동작 방법에 대한 흐름도이다.8 is a flowchart illustrating a method of operating an
도 8을 참고하면, 전자 장치(100)는 800과정에서 카메라 장치(130)를 통하여 수신한 이미지를 디스플레이할 수 있다.Referring to FIG. 8, the
일 실시 예에 따르면, 전자 장치(100)는 특정 어플리케이션을 실행하거나 또는 특정 키의 입력 등과 같은 카메라 촬영 모드 진입 이벤트에 따라 카메라 촬영 모드로 진입할 수 있다. 카메라 촬영 모드로 진입하는 경우, 전자 장치(100)는 카메라 장치(130)를 통하여 수신한 배경이미지(300)를 터치 스크린(190)에 출력할 수 있을 것이다.According to an embodiment, the
그 다음, 전자 장치(100)는 810과정에서 디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트의 감지 여부를 결정할 수 있다.Then, the
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)의 제1일정 영역에 입력되는 제1터치 이벤트를 감지할 수 있다. 여기서, 제1터치 이벤트는 터치 스크린(190)에서 탭(tab) 동작, 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 터치 인식 제어부(220)는 카메라 촬영 모드에서 터치 스크린(190)의 터치 정보를 포커싱 제어부(230)로 제공할 수 있다. 터치 인식 제어부(220)는 TAF(Touch Auto Focus) 기능 또는 MF(Manual Focus) 기능을 위한 터치 정보를 수집할 수 있다.According to an embodiment, the touch
디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트를 감지한 경우, 전자 장치(100)는 820과정에서 주변 밝기가 일정 밝기 미만이거나 또는 동영상 촬영 모드인지 여부를 결정할 수 있다.When detecting the first touch event for the first region of the displayed image, the
일 실시 예에 따르면, 전자 장치(100)는 조도 센서와 같은 카메라 장치(130)의 센서 장치(140)를 통해 전자 장치(100)의 주변 밝기를 측정할 수 있다. 또한, 전자 장치(100)는 현재 카메라 촬영 모드가 일반 촬영 모드인지 또는 동영상 촬영 모드인지 여부를 확인할 수 있다.According to an embodiment, the
주변 밝기가 일정 밝기 이상이고, 동영상 촬영 모드가 아닌 경우, 전자 장치(100)는 830과정에서 제1영역에 대한 자동 포커싱 화면을 디스플레이할 수 있다.When the ambient brightness is equal to or greater than a certain brightness and is not in the video recording mode, the
일 실시 예에 따르면, 포커싱 제어부(220)는 제1영역에 대한 TAF 기능을 수행하여 제1영역에 대한 포커싱 화면을 표시할 수 있을 것이다.According to an embodiment, the focusing
주변 밝기가 일정 밝기 미만이거나 또는 동영상 촬영 모드인 경우, 전자 장치(100)는 840과정에서 제1영역에 대한 자동 포커싱 화면 및 카메라 장치(130)의 렌즈의 포커싱 레벨을 나타내는 오브젝트를 디스플레이할 수 있다.When the ambient brightness is less than a certain brightness or in the video recording mode, the
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(230)는 터치 인식 제어부(220)에서 제공받은 터치 정보에 대응하여 TAF 기능 또는 MF 기능을 수행할 수 있다. 예컨대, 포커싱 제어부(230)는 도 3b와 같이 터치 스크린(190)에 디스플레이된 배경이미지(300)의 제1일정 영역을 터치하는 경우, TAF 기능을 수행하여 제1일정 영역에 대한 포커싱 화면(320)을 표시할 수 있으며, MF 기능을 수행하여 제1일정 영역에 대한 카메라 장치(130)의 포커싱 레벨을 나타내는 포커싱 레벨 오브젝트(330)를 표시할 수 있다. 이러한 포커싱 제어부(230)는 카메라 장치(130)의 렌즈의 이동 거리와 대응하는 포커싱 레벨을 단계별로 대응시켜 저장할 수 있다.According to an embodiment, the focusing
일 실시 예에 따르면, 포커싱 레벨 오브젝트(330)는 카메라 장치(130)의 렌즈의 이동거리 또는 포커싱 레벨을 나타내는 이동거리 표시바(333)와 현재의 카메라 장치(130)의 렌즈 위치 또는 포커싱 레벨을 나타내는 렌즈 위치 표시자(331)로 구성될 수 있다.According to an embodiment, the focusing
그 다음, 전자 장치(100)는 850과정에서 디스플레이된 오브젝트에 대한 제2터치 이벤트 감지 여부를 결정할 수 있다.Next, the
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)에 디스플레이된 포커싱 레벨 오브젝트(330)에 대한 제2터치 이벤트를 감지할 수 있다. 여기서, 제2터치 이벤트는 터치 스크린(190)에서 탭(tab) 동작, 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.According to an embodiment, the touch
일 실시 예에 따르면, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(331)를 터치 또는 터치 및 드래그하여 렌즈 위치 표시자(331)를 이동시킬 수 있다.According to an embodiment, the user may move the
디스플레이된 오브젝트에 대한 제2터치 이벤트를 감지한 경우, 전자 장치(100)는 860과정에서 제2터치 이벤트에 따른 오브젝트의 위치에 대응하여 제1영역에 대한 카메라 장치(130)의 렌즈의 포커싱 레벨을 조정할 수 있다.When detecting the second touch event for the displayed object, the
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(220)는 렌즈 위치 표시자(331)의 움직임에 따라 포커싱 레벨을 조절할 수 있다. 예컨대, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(331)를 터치 또는 터치 및 드래그하여 포커싱 화면(320)에 대한 포커싱 레벨을 조절할 수 있다(도 3c 참조). 이러한 렌즈 위치 표시자(331)는 이동거리 표시바(333) 영역 내에서 이동할 수 있으며, 단계별로 이동 또는 특정 단계로 이동이 가능하다. 이러한 방식으로 사용자는 배경이미지(300)의 제1일정 영역의 포커싱 레벨을 임의로 조절할 수 있다.According to an embodiment, the focusing
다양한 실시 예에 따르면, 전자 장치(100)는 주변이 어둡거나 또는 동영상 촬영 모드인 경우를 감지하여 수동 포커싱 기능을 활성화하는 것으로 서술하였으나 이에 국한되지는 않는다. 예컨대, 전자 장치(100)는 다양한 특정 상황을 설정하여 수동 포커싱 기능을 수행할 수 있을 것이다.According to various embodiments, the
이러한 각 과정에 대한 명령어 세트는 상술한 메모리(110)에 하나 이상의 모듈로 저장될 수 있다. 이 경우, 메모리(110)에 저장되어 있는 모듈은 하나 이상의 프로세서(122)에 의하여 실행될 수 있다.
The instruction set for each of these processes may be stored as one or more modules in the above-described
도 9는 본 발명의 다양한 실시 예에 따른 전자 장치(100)의 동작 방법에 대한 흐름도이다.9 is a flowchart illustrating a method of operating an
도 9를 참고하면, 전자 장치(100)는 900과정에서 카메라 장치(130)를 통하여 수신한 이미지를 디스플레이할 수 있다.Referring to FIG. 9, the
일 실시 예에 따르면, 전자 장치(100)는 특정 어플리케이션을 실행하거나 또는 특정 키의 입력 등과 같은 카메라 촬영 모드 진입 이벤트에 따라 카메라 촬영 모드로 진입할 수 있다. 카메라 촬영 모드로 진입하는 경우, 전자 장치(100)는 카메라 장치(130)를 통하여 수신한 배경이미지(300)를 터치 스크린(190)에 출력할 수 있을 것이다.According to an embodiment, the
그 다음, 전자 장치(100)는 910과정에서 디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트의 감지 여부를 결정할 수 있다.Then, the
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)의 제1일정 영역에 입력되는 제1터치 이벤트를 감지할 수 있다. 여기서, 제1터치 이벤트는 터치 스크린(190)에서 탭(tab) 동작, 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 터치 인식 제어부(220)는 카메라 촬영 모드에서 터치 스크린(190)의 터치 정보를 포커싱 제어부(230)로 제공할 수 있다. 터치 인식 제어부(220)는 TAF(Touch Auto Focus) 기능 또는 MF(Manual Focus) 기능을 위한 터치 정보를 수집할 수 있다.According to an embodiment, the touch
디스플레이된 이미지의 제1영역에 대한 제1터치 이벤트를 감지한 경우, 전자 장치(100)는 920과정에서 수동 포커싱 기능이 활성화되었는지 여부를 결정할 수 있다.When detecting the first touch event for the first area of the displayed image, the
일 실시 예에 따르면, 전자 장치(100)는 수동 포커싱 기능을 선택적으로 활성화할 수 있다. 예컨대, 동영상 촬영 모드 또는 야간 촬영 모드일 경우 수동 포커싱 기능을 활성화하도록 할 수 있다.According to an embodiment, the
수동 포커싱 기능이 활성화되지 않은 경우, 전자 장치(100)는 930과정에서 제1영역에 대한 자동 포커싱 화면을 디스플레이할 수 있다.When the manual focusing function is not activated, the
일 실시 예에 따르면, 포커싱 제어부(220)는 일반 촬영 모드인 경우, 제1영역에 대한 TAF 기능을 수행하여 제1영역에 대한 포커싱 화면을 표시할 수 있을 것이다.According to an embodiment, in the general photographing mode, the focusing
수동 포커싱 기능이 활성화된 경우, 전자 장치(100)는 940과정에서 제1영역에 대한 자동 포커싱 화면 및 카메라 장치(130)의 렌즈의 포커싱 레벨을 나타내는 오브젝트를 디스플레이할 수 있다.When the manual focusing function is activated, the
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(230)는 터치 인식 제어부(220)에서 제공받은 터치 정보에 대응하여 TAF 기능 또는 MF 기능을 수행할 수 있다. 예컨대, 포커싱 제어부(230)는 도 3b와 같이 터치 스크린(190)에 디스플레이된 배경이미지(300)의 제1일정 영역을 터치하는 경우, TAF 기능을 수행하여 제1일정 영역에 대한 포커싱 화면(320)을 표시할 수 있으며, MF 기능을 수행하여 제1일정 영역에 대한 카메라 장치(130)의 포커싱 레벨을 나타내는 포커싱 레벨 오브젝트(330)를 표시할 수 있다. 이러한 포커싱 제어부(230)는 카메라 장치(130)의 렌즈의 이동 거리와 대응하는 포커싱 레벨을 단계별로 대응시켜 저장할 수 있다.According to an embodiment, the focusing
일 실시 예에 따르면, 포커싱 레벨 오브젝트(330)는 카메라 장치(130)의 렌즈의 이동거리 또는 포커싱 레벨을 나타내는 이동거리 표시바(333)와 현재의 카메라 장치(130)의 렌즈 위치 또는 포커싱 레벨을 나타내는 렌즈 위치 표시자(331)로 구성될 수 있다.According to an embodiment, the focusing
그 다음, 전자 장치(100)는 950과정에서 디스플레이된 오브젝트에 대한 제2터치 이벤트 감지 여부를 결정할 수 있다.Then, in
일 실시 예에 따르면, 전자 장치(100)의 터치 인식 제어부(220)는 터치 스크린(190)에 디스플레이된 포커싱 레벨 오브젝트(330)에 대한 제2터치 이벤트를 감지할 수 있다. 여기서, 제2터치 이벤트는 터치 스크린(190)에서 탭(tab) 동작, 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함할 수 있다.According to an embodiment, the touch
일 실시 예에 따르면, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(331)를 터치 또는 터치 및 드래그하여 렌즈 위치 표시자(331)를 이동시킬 수 있다.According to an embodiment, the user may move the
디스플레이된 오브젝트에 대한 제2터치 이벤트를 감지한 경우, 전자 장치(100)는 960과정에서 제2터치 이벤트에 따른 오브젝트의 위치에 대응하여 제1영역에 대한 카메라 장치(130)의 렌즈의 포커싱 레벨을 조정할 수 있다.When detecting the second touch event for the displayed object, the
일 실시 예에 따르면, 전자 장치(100)의 포커싱 제어부(220)는 렌즈 위치 표시자(331)의 움직임에 따라 포커싱 레벨을 조절할 수 있다. 예컨대, 사용자는 손가락(F) 또는 터치 펜과 같은 입력 수단으로 렌즈 위치 표시자(331)를 터치 또는 터치 및 드래그하여 포커싱 화면(320)에 대한 포커싱 레벨을 조절할 수 있다(도 3c 참조). 이러한 렌즈 위치 표시자(331)는 이동거리 표시바(333) 영역 내에서 이동할 수 있으며, 단계별로 이동 또는 특정 단계로 이동이 가능하다. 이러한 방식으로 사용자는 배경이미지(300)의 제1일정 영역의 포커싱 레벨을 임의로 조절할 수 있다.According to an embodiment, the focusing
다양한 실시 예에 따르면, 전자 장치(100)는 상술한 방식으로 특정 기능을 활성화 또는 비활성화하여 포커싱 기능을 수동적으로 조정할 수 있다.According to various embodiments, the
이러한 각 과정에 대한 명령어 세트는 상술한 메모리(110)에 하나 이상의 모듈로 저장될 수 있다. 이 경우, 메모리(110)에 저장되어 있는 모듈은 하나 이상의 프로세서(122)에 의하여 실행될 수 있다.
일 실시 예에 따르면, 터치 스크린을 포함하는 전자 장치(100)의 동작 방법은, 카메라 장치를 통하여 수신한 제1동영상을 디스플레이 하는 과정; 상기 카메라 장치를 통하여 수신한 제2동영상을 디스플레이 하는 과정; 상기 제1동영상의 제1대상물과 상기 제2동영상의 제2대상물이 상기 카메라 장치로부터의 거리가 기준거리 이상이라는 입력을 감지하는 과정; 상기 제2동영상의 상기 제2대상물에 대한 제1터치 이벤트를 감지하는 과정; 상기 제1터치 이벤트의 감지에 응답하여, 상기 제2대상물에 대한 자동 포커싱 화면과 함께 상기 카메라 장치의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이 하는 과정, 여기에서 상기 자동 포커싱 화면은 상기 제2동영상의 디스플레이 화면보다 작고, 상기 사용자 인터페이스 오브젝트는 상기 제2동영상의 디스플레이 화면 상에 디스플레이 되고; 상기 디스플레이 된 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하는 과정; 및 상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제2동영상의 상기 제2대상물에 대한 상기 카메라 장치의 렌즈의 포커싱 레벨이 기 저장된 특정 단계로 이동하는 과정을 포함할 수 있고, 상기 제2터치 이벤트는 상기 사용자 인터페이스 오브젝트에 대한 탭(tab) 동작, 탭 앤 홀드(tab and hold) 동작, 및 다중 탭(multi tab) 동작 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따르면, 터치 스크린을 포함하는 전자 장치(100)의 동작 방법은, 카메라 장치를 통하여 수신한 제1동영상을 디스플레이 하는 과정; 상기 카메라 장치를 통하여 수신한 제2동영상을 디스플레이 하는 과정, 여기에서 상기 제1동영상의 제1대상물과 상기 제2동영상의 제2대상물이 상기 카메라 장치로부터의 거리가 기준거리 이상이고; 상기 제2동영상의 상기 제2대상물에 대한 제1터치 이벤트를 감지하는 과정; 상기 제1터치 이벤트의 감지에 응답하여, 상기 제2대상물에 대한 자동 포커싱 화면과 함께 상기 카메라 장치의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이하는 과정, 여기에서 상기 자동 포커싱 화면은 상기 제2동영상의 디스플레이 화면보다 작고, 상기 사용자 인터페이스 오브젝트는 상기 제2동영상의 디스플레이 화면 상에 디스플레이 되고; 상기 디스플레이 된 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하는 과정; 및 상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제2동영상의 상기 제2대상물에 대한 상기 카메라 장치의 렌즈의 포커싱 레벨이 기 저장된 특정 단계로 이동하는 과정을 포함할 수 있고, 상기 제2터치 이벤트는 상기 사용자 인터페이스 오브젝트에 대한 탭(tab) 동작, 탭 앤 홀드(tab and hold) 동작, 및 다중 탭(multi tab) 동작 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따르면, 터치 스크린을 포함하는 전자 장치(100)의 동작 방법은, 카메라 장치를 통하여 수신한 제1동영상을 디스플레이 하는 과정; 상기 카메라 장치를 통하여 수신한 제2동영상을 디스플레이 하는 과정, 여기에서 상기 제1동영상의 제1대상물은 상기 제2동영상의 제2대상물과 다르며; 상기 제2동영상의 상기 제2대상물에 대한 제1터치 이벤트를 감지하는 과정; 상기 제1터치 이벤트의 감지에 응답하여, 상기 제2대상물에 대한 자동 포커싱 화면과 함께 상기 카메라 장치의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이 하는 과정, 여기에서 상기 자동 포커싱 화면은 상기 제2동영상의 디스플레이 화면보다 작고, 상기 사용자 인터페이스 오브젝트는 상기 제2동영상의 디스플레이 화면 상에 디스플레이 되고; 상기 디스플레이 된 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하는 과정; 및 상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제2동영상의 상기 제2대상물에 대한 상기 카메라 장치의 렌즈의 포커싱 레벨이 기 저장된 특정 단계로 이동하는 과정을 포함할 수 있고, 상기 제2터치 이벤트는 상기 사용자 인터페이스 오브젝트에 대한 탭(tab) 동작, 탭 앤 홀드(tab and hold) 동작, 및 다중 탭(multi tab) 동작 중 적어도 하나를 포함할 수 있다.The instruction set for each of these processes may be stored as one or more modules in the above-described
According to an embodiment, a method of operating the electronic device 100 including a touch screen may include displaying a first video received through a camera device; Displaying a second video received through the camera device; Detecting an input that a distance between a first object of the first video and a second object of the second video is greater than or equal to a reference distance from the camera device; Detecting a first touch event for the second object of the second video; In response to detection of the first touch event, a process of displaying a user interface object indicating a focusing level of the lens of the camera device together with an automatic focusing screen for the second object, wherein the automatic focusing screen is the second Smaller than the display screen of the moving picture, and the user interface object is displayed on the display screen of the second moving picture; Detecting a second touch event for the displayed user interface object; And moving to a predetermined step in which the focusing level of the lens of the camera device with respect to the second object of the second video is stored in correspondence with the position of the user interface object according to the second touch event, and , The second touch event may include at least one of a tab operation, a tab and hold operation, and a multi tab operation on the user interface object.
According to an embodiment, a method of operating the electronic device 100 including a touch screen may include displaying a first video received through a camera device; Displaying a second video received through the camera device, wherein a distance between the first object of the first video and the second object of the second video is greater than or equal to a reference distance from the camera device; Detecting a first touch event for the second object of the second video; In response to detection of the first touch event, a process of displaying a user interface object indicating a focusing level of a lens of the camera device together with an automatic focusing screen for the second object, wherein the automatic focusing screen is the second Smaller than the display screen of the moving picture, and the user interface object is displayed on the display screen of the second moving picture; Detecting a second touch event for the displayed user interface object; And moving to a predetermined step in which the focusing level of the lens of the camera device with respect to the second object of the second video is stored in correspondence with the position of the user interface object according to the second touch event, and , The second touch event may include at least one of a tab operation, a tab and hold operation, and a multi tab operation on the user interface object.
According to an embodiment, a method of operating the
본 발명의 일 실시 예에 따르면, 각각의 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 그 조합으로 구성될 수 있다. 일부 또는 전체 모듈은 하나의 개체에 구성되고, 각 모듈의 기능을 동일하게 수행할 수 있다. 본 발명의 일 실시 예에 따르면, 각각의 과정들은 순차적, 반복적 또는 병렬적으로 실행될 수 있다. 일부 과정들은 생략되거나 다른 과정들이 추가되어 실행될 수 있다. 예컨대, 각각의 과정들은 본 발명의 실시 예에서 기술한 대응하는 모듈에 의해서 실행될 수 있다.According to an embodiment of the present invention, each of the modules may be composed of software, firmware, hardware, or a combination thereof. Some or all of the modules are configured in one entity, and each module may perform the same function. According to an embodiment of the present invention, each of the processes may be executed sequentially, repeatedly, or in parallel. Some processes can be omitted or other processes can be added and executed. For example, each process may be executed by a corresponding module described in the embodiment of the present invention.
소프트웨어로 구현하는 경우, 하나 이상의 프로그램(소프트웨어 모듈)을 저장하는 비일시적인(non-transient) 컴퓨터 판독 가능 저장 매체가 제공될 수 있다. 컴퓨터 판독 가능 저장 매체에 저장되는 하나 이상의 프로그램은 전자 장치 내의 하나 이상의 프로세서에 의해 실행될 수 있다. 하나 이상의 프로그램은 전자 장치로 하여금, 본 발명의 다양한 실시 예들에 따른 방법들을 실행하게 하는 명령어를 포함할 수 있다.When implemented in software, a non-transient computer-readable storage medium storing one or more programs (software modules) may be provided. One or more programs stored in the computer-readable storage medium may be executed by one or more processors in the electronic device. One or more programs may include instructions for causing the electronic device to execute methods according to various embodiments of the present disclosure.
이러한 프로그램(소프트웨어 모듈, 소프트웨어)은 랜덤 액세스 메모리(random access memory), 플래시(flash) 메모리를 포함하는 불휘발성(non-volatile) 메모리, 롬(ROM, Read Only Memory), 전기적 삭제가능 프로그램가능 롬(EEPROM, Electrically Erasable Programmable Read Only Memory), 자기 디스크 저장 장치(magnetic disc storage device), 컴팩트 디스크 롬(CD-ROM, Compact Disc-ROM), 디지털 다목적 디스크(DVDs, Digital Versatile Discs) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)에 저장될 수 있다. 또는 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다.These programs (software modules, software) include random access memory, non-volatile memory including flash memory, ROM (Read Only Memory), and electrically erasable programmable ROM. (EEPROM, Electrically Erasable Programmable Read Only Memory), magnetic disc storage device, Compact Disc-ROM (CD-ROM), Digital Versatile Discs (DVDs), or other types of It may be stored in an optical storage device or a magnetic cassette. Alternatively, it may be stored in a memory composed of some or all combinations thereof. In addition, a plurality of configuration memories may be included.
전자 장치에 인터넷(Internet), 인트라넷(Intranet), LAN(Local Area Network), WLAN(Wide LAN) 또는 SAN(Storage Area Network)과 같은 통신 네트워크 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근할 수 있는 부착 가능한 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트 장치를 통하여 전자 장치에 접속할 수 있다.Electronic devices can be accessed through a communication network such as the Internet, Intranet, Local Area Network (LAN), Wide LAN (WLAN), or Storage Area Network (SAN), or a combination of these. It may be stored in an attachable storage device. Such a storage device can access the electronic device through an external port device.
또한, 통신 네트워크상의 별도의 저장 장치가 전자 장치에 접속할 수도 있다.In addition, a separate storage device on the communication network may access the electronic device.
분명히, 청구항들의 범위 내에 있으면서 이러한 실시 예들을 변형할 수 있는 다양한 방식들이 있다. 다시 말하면, 이하 청구항들의 범위를 벗어남 없이 본 발명을 실시할 수 있는 다양한 방식들이 있을 것이다.
Obviously, there are various ways in which these embodiments can be modified while remaining within the scope of the claims. In other words, there will be various ways in which the present invention can be practiced without departing from the scope of the following claims.
100: 전자 장치 190: 터치 스크린
300, 400: 배경이미지 320, 410: 포커싱 화면
330, 420: 포커싱 레벨 오브젝트100: electronic device 190: touch screen
300, 400:
330, 420: focusing level object
Claims (20)
카메라 장치를 통하여 수신한 이미지를 디스플레이 하는 과정;
상기 이미지의 제1영역에 대한 제1터치 이벤트를 감지하는 과정;
상기 제1터치 이벤트의 감지에 응답하여, 상기 제1영역에 대한 자동 포커싱 화면과 함께 상기 카메라 장치의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이 하는 과정;
상기 디스플레이 된 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하는 과정; 및
상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제1영역에 대한 상기 카메라 장치의 렌즈의 포커싱 레벨이 기 저장된 특정 단계로 이동하는 과정을 포함하고,
상기 제2터치 이벤트는 상기 사용자 인터페이스 오브젝트에 대한 탭(tab) 동작, 탭 앤 홀드(tab and hold) 동작, 및 다중 탭(multi tab) 동작 중 적어도 하나를 포함하는 방법.
In the method of operating an electronic device including a touch screen,
Displaying an image received through a camera device;
Detecting a first touch event for a first area of the image;
In response to detecting the first touch event, displaying a user interface object indicating a focusing level of a lens of the camera device together with an automatic focusing screen for the first region;
Detecting a second touch event for the displayed user interface object; And
And moving to a predetermined step in which the focusing level of the lens of the camera device with respect to the first region is stored in correspondence with the position of the user interface object according to the second touch event,
The second touch event includes at least one of a tab operation, a tab and hold operation, and a multi tab operation on the user interface object.
상기 카메라 장치의 렌즈의 이동 거리와 대응하는 상기 포커싱 레벨을 단계별로 대응시켜 저장하는 과정을 추가로 포함하는 방법.
The method of claim 1,
And storing the focusing level corresponding to the moving distance of the lens of the camera device in stages.
상기 자동 포커싱 화면은 상기 이미지의 디스플레이 화면보다 작고, 상기 사용자 인터페이스 오브젝트는 상기 이미지의 디스플레이 화면 상에 디스플레이 되는 것을 포함하는 방법.
The method of claim 1,
Wherein the automatic focusing screen is smaller than the display screen of the image, and the user interface object is displayed on the display screen of the image.
상기 제1터치 이벤트는 상기 터치 스크린에서 탭(tab) 동작, 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 포함하는 방법.
The method of claim 1,
The first touch event is a tab operation, a flicking operation, a touch and drag operation, a tab and hold operation, and a multi tab operation on the touch screen. A method comprising at least one of the actions.
상기 제1영역에 대한 상기 자동 포커싱 화면은 상기 제1영역에 대한 상기 카메라 장치의 렌즈의 최적의 포커싱을 적용하는 것을 포함하는 방법.
The method of claim 1,
The automatic focusing screen for the first area comprises applying an optimal focusing of a lens of the camera device to the first area.
상기 카메라 장치는 VCM(Voice Coil Motor) 방식, 피에조(piezo) 방식, liquid 렌즈 방식 중 적어도 하나의 방식을 이용하여 상기 카메라 장치의 렌즈를 이동하거나 전기적 특성에 의한 물성 변화에 따라 상기 포커싱 레벨을 조절하는 것을 포함하는 방법.
The method of claim 1,
The camera device moves the lens of the camera device using at least one of a VCM (Voice Coil Motor) method, a piezo method, and a liquid lens method, or adjusts the focusing level according to a change in physical properties due to electrical characteristics. A method that involves doing.
터치 스크린;
적어도 하나의 카메라 장치;
메모리; 및
적어도 하나의 프로세서를 포함하고,
상기 프로세서는,
상기 카메라 장치를 통하여 수신한 이미지를 디스플레이 하고,
상기 이미지의 제1영역에 대한 제1터치 이벤트를 감지하고,
상기 제1터치 이벤트의 감지에 응답하여, 상기 제1영역에 대한 자동 포커싱 화면과 함께 상기 카메라 장치의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이 하며,
상기 디스플레이 된 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하고,
상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제1영역에 대한 상기 카메라 장치의 렌즈의 포커싱 레벨을 기 저장된 특정 단계로 이동하며,
상기 제2터치 이벤트는 상기 사용자 인터페이스 오브젝트에 대한 탭(tab) 동작, 탭 앤 홀드(tab and hold) 동작, 및 다중 탭(multi tab) 동작 중 적어도 하나를 포함하는 전자 장치.
In the electronic device,
touch screen;
At least one camera device;
Memory; And
Including at least one processor,
The processor,
Display the image received through the camera device,
Detecting a first touch event for the first area of the image,
In response to detection of the first touch event, a user interface object indicating a focusing level of the lens of the camera device is displayed together with an automatic focusing screen for the first region,
Detecting a second touch event for the displayed user interface object,
Moving the focusing level of the lens of the camera device with respect to the first region to a predetermined step stored in correspondence with the position of the user interface object according to the second touch event,
The second touch event includes at least one of a tab operation, a tab and hold operation, and a multi tab operation on the user interface object.
상기 프로세서는 상기 카메라 장치의 렌즈의 이동 거리와 대응하는 상기 포커싱 레벨을 단계별로 대응시켜 저장하는 전자 장치.
The method of claim 9,
The processor is an electronic device configured to correspond to and store the focusing level corresponding to the moving distance of the lens of the camera device step by step.
상기 프로세서는 상기 자동 포커싱 화면을 상기 이미지의 디스플레이 화면보다 작게 하고, 상기 사용자 인터페이스 오브젝트를 상기 이미지의 디스플레이 화면 상에 디스플레이 하도록 제어하는 전자 장치.
The method of claim 9,
The processor controls the automatic focusing screen to be smaller than the display screen of the image and to display the user interface object on the display screen of the image.
상기 프로세서는 상기 터치 스크린에서 탭(tab) 동작, 플리킹(flicking) 동작, 터치 앤 드래그(touch and drag) 동작, 탭 앤 홀드(tab and hold) 동작, 다중 탭(multi tab) 동작 중 적어도 하나의 동작을 상기 제1터치 이벤트로 감지하는 전자 장치.
The method of claim 9,
The processor is at least one of a tab operation, a flicking operation, a touch and drag operation, a tab and hold operation, and a multi tab operation on the touch screen. An electronic device that detects an operation of the first touch event.
상기 프로세서는 상기 제1영역에 대한 상기 자동 포커싱 화면을 상기 제1영역에 대한 상기 카메라 장치의 렌즈의 최적의 포커싱을 적용하는 전자 장치.
The method of claim 9,
The processor applies the optimal focusing of the lens of the camera device to the first area on the automatic focusing screen on the first area.
상기 카메라 장치는 VCM(Voice Coil Motor) 방식, 피에조(piezo) 방식, liquid 렌즈 방식 중 적어도 하나의 방식을 이용하여 상기 카메라 장치의 렌즈를 이동하거나 전기적 특성에 의한 물성 변화에 따라 상기 포커싱 레벨을 조절하는 전자 장치.
The method of claim 9,
The camera device moves the lens of the camera device using at least one of a VCM (Voice Coil Motor) method, a piezo method, and a liquid lens method, or adjusts the focusing level according to a change in physical properties due to electrical characteristics. Electronic device.
카메라 장치를 통하여 수신한 제1동영상을 디스플레이하는 과정;
상기 카메라 장치를 통하여 수신한 제2동영상을 디스플레이하는 과정;
상기 제1동영상의 제1대상물과 상기 제2동영상의 제2대상물이 상기 카메라 장치로부터의 거리가 기준거리 이상이라는 입력을 감지하는 과정;
상기 제2동영상의 상기 제2대상물에 대한 제1터치 이벤트를 감지하는 과정;
상기 제1터치 이벤트의 감지에 응답하여, 상기 제2대상물에 대한 자동 포커싱 화면과 함께 상기 카메라 장치의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이하는 과정, 여기에서 상기 자동 포커싱 화면은 상기 제2동영상의 디스플레이 화면보다 작고, 상기 사용자 인터페이스 오브젝트는 상기 제2동영상의 디스플레이 화면 상에 디스플레이 되고;
상기 디스플레이 된 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하는 과정; 및
상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제2동영상의 상기 제2대상물에 대한 상기 카메라 장치의 렌즈의 포커싱 레벨이 기 저장된 특정 단계로 이동하는 과정을 포함하고,
상기 제2터치 이벤트는 상기 사용자 인터페이스 오브젝트에 대한 탭(tab) 동작, 탭 앤 홀드(tab and hold) 동작, 및 다중 탭(multi tab) 동작 중 적어도 하나를 포함하는 방법.
In the method of operating an electronic device including a touch screen,
Displaying the first video received through the camera device;
Displaying a second video received through the camera device;
Detecting an input that a distance between a first object of the first video and a second object of the second video is greater than or equal to a reference distance from the camera device;
Detecting a first touch event for the second object of the second video;
In response to detection of the first touch event, a process of displaying a user interface object indicating a focusing level of a lens of the camera device together with an automatic focusing screen for the second object, wherein the automatic focusing screen is the second Smaller than the display screen of the moving picture, and the user interface object is displayed on the display screen of the second moving picture;
Detecting a second touch event for the displayed user interface object; And
In response to the position of the user interface object according to the second touch event, a focusing level of the lens of the camera device with respect to the second object of the second video is moved to a pre-stored specific step,
The second touch event includes at least one of a tab operation, a tab and hold operation, and a multi tab operation on the user interface object.
카메라 장치를 통하여 수신한 제1동영상을 디스플레이 하는 과정;
상기 카메라 장치를 통하여 수신한 제2동영상을 디스플레이 하는 과정, 여기에서 상기 제1동영상의 제1대상물과 상기 제2동영상의 제2대상물이 상기 카메라 장치로부터의 거리가 기준거리 이상이고;
상기 제2동영상의 상기 제2대상물에 대한 제1터치 이벤트를 감지하는 과정;
상기 제1터치 이벤트의 감지에 응답하여, 상기 제2대상물에 대한 자동 포커싱 화면과 함께 상기 카메라 장치의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이하는 과정, 여기에서 상기 자동 포커싱 화면은 상기 제2동영상의 디스플레이 화면보다 작고, 상기 사용자 인터페이스 오브젝트는 상기 제2동영상의 디스플레이 화면 상에 디스플레이 되고;
상기 디스플레이 된 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하는 과정; 및
상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제2동영상의 상기 제2대상물에 대한 상기 카메라 장치의 렌즈의 포커싱 레벨이 기 저장된 특정 단계로 이동하는 과정을 포함하고,
상기 제2터치 이벤트는 상기 사용자 인터페이스 오브젝트에 대한 탭(tab) 동작, 탭 앤 홀드(tab and hold) 동작, 및 다중 탭(multi tab) 동작 중 적어도 하나를 포함하는 방법.
In the method of operating an electronic device including a touch screen,
Displaying the first video received through the camera device;
Displaying a second video received through the camera device, wherein a distance between the first object of the first video and the second object of the second video is greater than or equal to a reference distance from the camera device;
Detecting a first touch event for the second object of the second video;
In response to detection of the first touch event, a process of displaying a user interface object indicating a focusing level of a lens of the camera device together with an automatic focusing screen for the second object, wherein the automatic focusing screen is the second Smaller than the display screen of the moving picture, and the user interface object is displayed on the display screen of the second moving picture;
Detecting a second touch event for the displayed user interface object; And
In response to the position of the user interface object according to the second touch event, a focusing level of the lens of the camera device with respect to the second object of the second video is moved to a pre-stored specific step,
The second touch event includes at least one of a tab operation, a tab and hold operation, and a multi tab operation on the user interface object.
카메라 장치를 통하여 수신한 제1동영상을 디스플레이 하는 과정;
상기 카메라 장치를 통하여 수신한 제2동영상을 디스플레이 하는 과정, 여기에서 상기 제1동영상의 제1대상물은 상기 제2동영상의 제2대상물과 다르며;
상기 제2동영상의 상기 제2대상물에 대한 제1터치 이벤트를 감지하는 과정;
상기 제1터치 이벤트의 감지에 응답하여, 상기 제2대상물에 대한 자동 포커싱 화면과 함께 상기 카메라 장치의 렌즈의 포커싱 레벨을 나타내는 사용자 인터페이스 오브젝트를 디스플레이 하는 과정, 여기에서 상기 자동 포커싱 화면은 상기 제2동영상의 디스플레이 화면보다 작고, 상기 사용자 인터페이스 오브젝트는 상기 제2동영상의 디스플레이 화면 상에 디스플레이 되고;
상기 디스플레이 된 사용자 인터페이스 오브젝트에 대한 제2터치 이벤트를 감지하는 과정; 및
상기 제2터치 이벤트에 따른 상기 사용자 인터페이스 오브젝트의 위치에 대응하여 상기 제2동영상의 상기 제2대상물에 대한 상기 카메라 장치의 렌즈의 포커싱 레벨이 기 저장된 특정 단계로 이동하는 과정을 포함하고,
상기 제2터치 이벤트는 상기 사용자 인터페이스 오브젝트에 대한 탭(tab) 동작, 탭 앤 홀드(tab and hold) 동작, 및 다중 탭(multi tab) 동작 중 적어도 하나를 포함하는 방법.
In the method of operating an electronic device including a touch screen,
Displaying the first video received through the camera device;
A process of displaying a second video received through the camera device, wherein the first object of the first video is different from the second object of the second video;
Detecting a first touch event for the second object of the second video;
In response to detection of the first touch event, a process of displaying a user interface object indicating a focusing level of the lens of the camera device together with an automatic focusing screen for the second object, wherein the automatic focusing screen is the second Smaller than the display screen of the moving picture, and the user interface object is displayed on the display screen of the second moving picture;
Detecting a second touch event for the displayed user interface object; And
In response to the position of the user interface object according to the second touch event, a focusing level of the lens of the camera device with respect to the second object of the second video is moved to a pre-stored specific step,
The second touch event includes at least one of a tab operation, a tab and hold operation, and a multi tab operation on the user interface object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130105938A KR102158293B1 (en) | 2013-09-04 | 2013-09-04 | Method for capturing image and electronic device thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130105938A KR102158293B1 (en) | 2013-09-04 | 2013-09-04 | Method for capturing image and electronic device thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150027502A KR20150027502A (en) | 2015-03-12 |
KR102158293B1 true KR102158293B1 (en) | 2020-09-21 |
Family
ID=53022824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130105938A KR102158293B1 (en) | 2013-09-04 | 2013-09-04 | Method for capturing image and electronic device thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102158293B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113302908B (en) * | 2020-09-22 | 2023-07-11 | 深圳市大疆创新科技有限公司 | Control method, handheld cradle head, system and computer readable storage medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006222618A (en) * | 2005-02-09 | 2006-08-24 | Casio Comput Co Ltd | Camera device, camera control program, and recording voice control method |
JP2010237911A (en) * | 2009-03-31 | 2010-10-21 | Sanyo Electric Co Ltd | Electronic apparatus |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101689171B1 (en) * | 2010-10-11 | 2016-12-23 | 엘지전자 주식회사 | Mobile Terminal And Method Of Photographing Image Using The Same |
KR101663225B1 (en) * | 2010-01-19 | 2016-10-06 | 삼성전자주식회사 | Method and Apparatus for processing digital image |
-
2013
- 2013-09-04 KR KR1020130105938A patent/KR102158293B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006222618A (en) * | 2005-02-09 | 2006-08-24 | Casio Comput Co Ltd | Camera device, camera control program, and recording voice control method |
JP2010237911A (en) * | 2009-03-31 | 2010-10-21 | Sanyo Electric Co Ltd | Electronic apparatus |
Also Published As
Publication number | Publication date |
---|---|
KR20150027502A (en) | 2015-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9952681B2 (en) | Method and device for switching tasks using fingerprint information | |
EP3695300B1 (en) | Managing and mapping multi-sided touch | |
EP2975838B1 (en) | Image shooting parameter adjustment method and device | |
US10001910B2 (en) | Mobile terminal and controlling method thereof for creating shortcut of executing application | |
EP3163404B1 (en) | Method and device for preventing accidental touch of terminal with touch screen | |
KR102056316B1 (en) | Method of operating touch screen and electronic device thereof | |
US20150301595A1 (en) | Electronic apparatus and eye-gaze input method | |
US20150277720A1 (en) | Systems and Methods for Managing Operating Modes of an Electronic Device | |
KR102075117B1 (en) | User device and operating method thereof | |
EP3232301B1 (en) | Mobile terminal and virtual key processing method | |
KR102187236B1 (en) | Preview method of picture taken in camera and electronic device implementing the same | |
US20210165670A1 (en) | Method, apparatus for adding shortcut plug-in, and intelligent device | |
EP3182256B1 (en) | Touch control button, touch control panel and touch control terminal | |
KR20150045637A (en) | Method for operating user interfacing and electronic device thereof | |
JP7244231B2 (en) | ELECTRONIC DEVICE, CONTROL PROGRAM AND DISPLAY CONTROL METHOD | |
KR102125525B1 (en) | Method for processing image and electronic device thereof | |
KR102203131B1 (en) | Method for management file and electronic device thereof | |
US20150042589A1 (en) | Method and electronic device for wireless connection | |
KR102185204B1 (en) | Electronic device with using an infrared sensor and operation method thereof | |
KR102158293B1 (en) | Method for capturing image and electronic device thereof | |
WO2017035794A1 (en) | Method and device for operating display, user interface, and storage medium | |
US20160154566A1 (en) | Adaptive running mode | |
KR102120449B1 (en) | Method for operating application and electronic device thereof | |
JP2020017218A (en) | Electronic device, control program, and display control method | |
KR20150026395A (en) | Method for capturing image and electronic device thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |