KR20160096853A - Electronic device and method for providing user interface thereof - Google Patents
Electronic device and method for providing user interface thereof Download PDFInfo
- Publication number
- KR20160096853A KR20160096853A KR1020150018428A KR20150018428A KR20160096853A KR 20160096853 A KR20160096853 A KR 20160096853A KR 1020150018428 A KR1020150018428 A KR 1020150018428A KR 20150018428 A KR20150018428 A KR 20150018428A KR 20160096853 A KR20160096853 A KR 20160096853A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- user interface
- display unit
- electronic device
- displayed
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0464—Positioning
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/12—Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/14—Solving problems related to the presentation of information to be displayed
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2354/00—Aspects of interface with display user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/14—Display of multiple viewports
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/52—Details of telephonic subscriber devices including functional features of a camera
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
Abstract
Description
본 발명의 다양한 실시예는, 제어부의 제어에 따라 디스플레이가 거울로 동작하거나, 사용자 인터페이스를 표시하는 전자 장치 및 전자 장치에서의 사용자 인터페이스 제공 방법에 관한 것이다.Various embodiments of the present invention relate to an electronic device in which a display is operated as a mirror, under control of a control unit, or a user interface, and a method of providing a user interface in an electronic device.
최근에는, 일상 생활에서 사용하는 많은 물품들이 전자 제품으로 대체되고 있다. 또한, 일상 생활 용품들 중에서는 사용자의 편의성을 고려하여 복합적인 기능을 갖춘 용품들이 증가하고 있다. 이러한 다목적 생활 용품들은 대부분 전자 장치를 포함하고 있다. 예를 들어, 최근에 사용되는 하프 거울 디스플레이 장치의 경우, 거울로 사용되는 동시에, 사용자에게 컨텐츠 또는 정보를 제공하는 디스플레이 장치로도 사용된다. In recent years, many items used in everyday life have been replaced by electronic products. In addition, among the daily necessities, there are an increasing number of products having a complex function in consideration of the convenience of the user. Most of these versatile household goods include electronic devices. For example, in the case of a recently used half mirror display device, it is used as a mirror and also as a display device for providing contents or information to a user.
본 발명의 다양한 실시예들은, 거울 및 사용자 인터페이스를 동시에 제공할 수 있는 전자 장치 및 사용자 인터페이스 제공 방법을 제공하고자 한다.Various embodiments of the present invention are directed to providing an electronic device and a user interface providing method that can simultaneously provide a mirror and a user interface.
본 발명의 다양한 실시예에 따른 전자 장치는, 거울로 동작 가능하고, 사용자 인터페이스를 표시하는 디스플레이부; 상기 디스플레이부 전면에 사용자의 접근을 감지하고, 상기 디스플레이부 전면의 피사체를 촬영하는 센서부; 사용자로부터 입력을 수신하는 입력부; 및 상기 센서부가 촬영한 이미지를 이용하여 상기 디스플레이부에 비치는 사용자의 신체 영역을 판단하고, 상기 디스플레이부에 표시된 사용자 인터페이스와 상기 사용자의 신체 영역의 적어도 일부분이 중첩되는지 판단하고, 상기 디스플레이부가 상기 사용자 인터페이스를 재설정하여 표시하도록 제어하는 제어부를 포함할 수 있다.An electronic apparatus according to various embodiments of the present invention includes: a display unit operable with a mirror and displaying a user interface; A sensor unit for sensing a user's approach to the front face of the display unit and photographing a subject on the front face of the display unit; An input unit for receiving input from a user; And a controller for determining the user's body area displayed on the display unit using the image captured by the sensor unit and determining whether at least a part of the user's body area overlaps with the user interface displayed on the display unit, And controlling the interface to be reset and displayed.
본 발명의 다양한 실시예에 따른 사용자 인터페이스 제공 방법은, 거울로 동작 중인 상기 디스플레이부에 적어도 하나의 사용자 인터페이스를 표시하는 동작; 상기 디스플레이부 전면의 피사체를 촬영하여 이미지를 생성하는 동작; 상기 생성한 이미지를 이용하여 상기 디스플레이부에 비치는 사용자의 신체 영역을 판단하는 동작; 상기 디스플레이부에 표시된 상기 적어도 하나의 사용자 인터페이스와 상기 사용자의 신체 영역의 적어도 일부분이 중첩되는지 판단하는 동작; 상기 사용자 인터페이스를 상기 사용자의 신체 영역과 중첩되지 않도록 재설정하는 동작을 포함할 수 있다.A method of providing a user interface according to various embodiments of the present invention includes: displaying at least one user interface on the display unit as a mirror; Capturing a subject on the front surface of the display unit to generate an image; Determining a user's body area displayed on the display unit using the generated image; Determining whether at least a portion of the body region of the user overlaps with the at least one user interface displayed on the display unit; Resetting the user interface so that it does not overlap with the body area of the user.
본 발명의 다양한 실시예에 따른 전자 장치 및 사용자 인터페이스 제공 방법에 의하면, 사용자의 신체가 디스플레이부에 비치는 영역을 피해서 사용자 인터페이스를 제공할 수 있다.According to the electronic device and the method for providing a user interface according to various embodiments of the present invention, the user's body can provide a user interface while avoiding an area reflected on the display unit.
본 발명의 다양한 실시예에 따른 전자 장치 및 사용자 인터페이스 제공 방법에 의하면, 사용자는 거울을 보면서 사용자 인터페이스의 원활한 사용이 가능하다.According to the electronic device and the method for providing the user interface according to various embodiments of the present invention, the user can smoothly use the user interface while viewing the mirror.
도 1은 본 발명의 다양한 실시예들에 따른 전자 장치의 블록도를 도시한다.
도 2는 본 발명의 다양한 실시예들에 따른 전자 장치의 사용자 인터페이스 제공 방법의 순서도를 도시한다.
도 3a 및 도 3b는 본 발명의 일 실시예에 따른 전자 장치 및 사용장 인터페이스 제공 방법에 따라 사용자 인터페이스의 위치를 변경하는 동작을 설명하기 위한 도면이다.
도 4a 및 도 4b는 본 발명의 일 실시예에 따른 전자 장치 및 사용자 인터페이스 제공 방법에 따라 사용자 인터페이스의 크기를 변경하는 동작을 설명하기 위한 도면이다.
도 5a 내지 도 5c는 본 발명의 일 실시예에 따른 전자 장치 및 사용자 인터페이스 제공 방법에 따라 사용자 인터페이스의 위치 및 크기를 변경하는 동작을 설명하기 위한 도면이다.
도 6a 및 도6b는 본 발명의 일 실시예에 따른 전자 장치 및 사용자 인터페이스 제공 방법에 따라 멀티미디어 재생 화면의 크기 및 위치를 변경하는 동작을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 전자 장치의 사용자 인터페이스 제공 방법의 순서도를 도시한다.Figure 1 shows a block diagram of an electronic device according to various embodiments of the present invention.
2 shows a flowchart of a method for providing a user interface of an electronic device according to various embodiments of the present invention.
3A and 3B are views for explaining an operation of changing the position of a user interface according to an electronic device and a method of providing a service interface according to an embodiment of the present invention.
4A and 4B are views for explaining an operation of changing a size of a user interface according to an electronic device and a method for providing a user interface according to an embodiment of the present invention.
5A to 5C are views for explaining an operation of changing the position and size of a user interface according to an electronic device and a method for providing a user interface according to an embodiment of the present invention.
6A and 6B are views for explaining an operation of changing the size and position of a multimedia playback screen according to an electronic device and a method for providing a user interface according to an embodiment of the present invention.
7 shows a flowchart of a method for providing a user interface of an electronic device according to an embodiment of the present invention.
이하 본 개시에 따른 상세한 설명에서는 상술한 기술적 과제를 이루기 위한 대표적인 실시 예를 제시할 것이다. 또한, 본 개시에 대한 설명의 편의를 위하여 정의하고 있는 개체들의 명칭들을 동일하게 사용할 수 있다. 하지만, 설명의 편의를 위해 사용된 명칭들이 본 개시에 따른 권리를 한정하는 것은 아니며, 유사한 기술적 배경을 가지는 시스템에 대해 동일 또는 용이한 변경에 의해 적용 가능함은 물론이다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Also, for convenience of description of this disclosure, the names of the entities defined may be used equally. It should be understood, however, that the names used for convenience of description are not intended to limit the scope of the present disclosure, but are applicable to the system having a similar technical background by the same or an easy modification.
마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 따라서 본 개시는 첨부한 도면에 그려진 상대적인 크기나 간격에 의해 제한 되어지지 않는다.For the same reason, some of the elements in the accompanying drawings are exaggerated, omitted, or schematically shown, and the size of each element does not entirely reflect the actual size. Accordingly, the present disclosure is not limited by the relative size or spacing depicted in the accompanying drawings.
또한, 본 개시에 사용된 단수형은 문맥상 명확하게 달리 지적하지 않은 이상 복수형도 포함하는 것으로 의도된 것이다. 또한, 본 명세서에 사용된 "및"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함되는 것으로 이해되어야 한다.Furthermore, the singular forms used in this disclosure are intended to include the plural forms as well, unless the context clearly dictates otherwise. It is also to be understood that the term "and" as used herein refers to and includes all possible combinations of one or more of the listed related items.
또한, 본 개시에 기재된 "~ 부,"~ 모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. Also, the terms "module," " module, "etc. in this disclosure refer to a unit for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software.
이하, 첨부된 도면을 참조하여 본 개시를 설명한다.Hereinafter, the present disclosure will be described with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 전자 장치의 구성을 나타내는 블록도이다. 본 발명의 일 실시예에 다른 전자 장치는 디스플레이부(110), 센서부(120), 제어부(130), 통신부(140), 저장부(150), 오디오부(160)를 포함할 수 있다.1 is a block diagram showing a configuration of an electronic device according to an embodiment of the present invention. The electronic device according to an embodiment of the present invention may include a
디스플레이부(110)는 제어부(130)의 제어에 따라 거울로 동작할 수 있다. 또한, 디스플레이부(110)는 제어부(130)의 제어에 따라 사용자 인터페이스를 표시할 수 있다. 디스플레이부(110)는 거울로 동작하기 위하여 하프 미러를 포함할 수 있다. 본 발명의 다양한 실시예들에 따르면, 디스플레이부(110)는 LED로 구성된 픽셀들 사이의 빈 공간이 거울로 채워져서 구성될 수 있다. 디스플레이부(110)는 LCD 패널에 거울(예를 들면, 하프 거울)이 적층되어 형성될 수 있다.The
디스플레이부(110)는 사용자 디바이스 운용에 따른 다양한 화면(예컨대, 미디어 컨텐츠 재생 화면, 통화 발신을 위한 화면, 메신저 화면, 게임 화면, 갤러리 화면 등)을 표시할 수 있다. 디스플레이부(110)가 터치 스크린을 포함하는 경우, 디스플레이부(110)는 화면 표시 중에 사용자의 터치 이벤트(touch event)가 입력되면, 터치 이벤트에 따른 입력신호를 제어부(130)에 전달할 수 있다. 디스플레이부(110)는 전자 장치에서 처리되는 정보를 표시(출력)할 수 있다. 예를 들어, 디스플레이부(110)는 전자 장치가 통화모드인 경우 통화와 관련된 사용자 인터페이스(UI, User Interface) 또는 그래픽 사용자 인터페이스(GUI, Graphical UI)를 표시할 수 있다. 디스플레이부(110)는 사용자 디바이스가 화상통화 모드 또는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시할 수 있다.
디스플레이부(110)는 액정 디스플레이(LCD, Liquid Crystal Display), 박막 트랜지스터 액정 디스플레이(TFT LCD, Thin Film Transistor-LCD), 발광 다이오드(LED, Light Emitting Diode), 유기 발광 다이오드(OLED, Organic LED), 능동형 OLED(AMOLED, Active Matrix OLED), 플렉서블 디스플레이(flexible display), 벤디드 디스플레이(bended display), 그리고 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 일 실시예에 의하면, 일부 디스플레이는 외부를 볼 수 있도록 투명형 또는 광투명형으로 구성되는 투명 디스플레이(transparent display)로 구현될 수 있다.The
본 발명의 일 실시예에 따르면, 디스플레이부(110)는 거울로 동작할 수 있다. 디스플레이부(110)는 거울로 동작 중에 제어부(130)의 제어에 따라 적어도 하나의 사용자 인터페이스를 표시할 수 있다. 예를 들어, 사용자 인터페이스는 애플리케이션 실행 화면(예를 들면, 인터넷 실행 화면, 헬스 케어 애플리케이션 화면, 주변 매장 정소 검색 화면 등), 애플리케이션 실행 아이콘, 이미지 컨텐츠, 또는 멀티미디어 컨텐츠를 포함할 수 있다. 사용자 인터페이스는 디스플레이부(110)가 사용자의 터치 입력 또는 제어부(130)의 제어에 따라 표시할 수 있는 다양한 컨텐츠들을 모두 포함할 수 있다. 예를 들어, 사용자 인터페이스는 전자 장치의 기능을 수행하기 위한 메뉴, 전자 장치에서 기본적으로 제공하는 시간, 날짜, 날씨 등의 정보를 나타내는 아이콘, 또는 화면을 포함할 수 있다.According to an embodiment of the present invention, the
디스플레이부(110)는 제어부(130)의 제어에 따라 표시한 사용자 인터페이스의 크기를 변경하여 표시할 수 있다. 디스플레이부(110)는 제어부(130)의 제어에 따라 표시한 사용자 인터페이스의 위치를 변경할 수 있다.The
센서부(120)는, 예를 들면, 제스처 센서(Gesture Sensor), 자이로 센서(Gyro Sensor), 마그네틱 센서(Magnetic Sensor), 가속도 센서(Acceleration Sensor), 근접 센서(Proximity Sensor), 조도 센서(Illuminance Sensor)(156) 또는 지문인식 센서 등을 포함할 수 있다.The
본 발명의 일 실시예에 의하면, 센서부(120)는 디스플레이부(110) 전면에 사용자의 접근을 감지할 수 있다. 예를 들어, 센서부(120)는 근접 센서 또는 적외선 센서를 이용하여 전자 장치 전면부 쪽에 사용자가 접근하는 것을 감지할 수 있다. 센서 부는 사용자의 접근을 감지하면 제어부(130)에 감지 신호를 전송할 수 있다. 감지 신호는 사용자가 전자 장치에 기 설정된 거리 이상 접근한 것을 제어부(130)에 알려주는 신호일 수 있다. According to an embodiment of the present invention, the
본 발명의 일 실시예에 의하면, 센서부(120)는 디스플레이부(110)에 비치는 사용자의 신체 영역을 감지할 수 있다. 예를 들어, 센서부(120)는 이미지 센서, IR 센서 등을 사용하여 디스플레이부(110) 전면에 접근한 사용자의 모습을 감지할 수 있다.According to an embodiment of the present invention, the
본 발명의 일 실시예에 따르면, 센서부(120)는 디스플레이부(110) 전면의 피사체를 촬영하여 이미지를 생성할 수 있다. 예를 들어, 센서부(120)는 디스플레이부의 전면에 접근한 사용자를 감지하고, 사용자를 촬영할 수 있다.According to an embodiment of the present invention, the
본 발명의 일 실시예에 따르면, 센서부(120)는 카메라 모듈을 포함할 수 있다. 카메라 모듈은 센서부(120)에 포함되어 하나의 모듈로 구성될 수도 있고, 별도의 독립적인 모듈로 구성될 수도 있다. 카메라 모듈은 광학 신호를 집광하는 렌즈, 광학 신호의 광량을 조절하는 조리개, 광학 신호의 입력을 제어하는 셔터, 광학 신호를 수광하여 전기 신호로 변환하는 이미지 센서 등을 포함할 수 있다. 예를 들면, 렌즈는 초점 거리 정보(focus length)에 따라 화각이 좁아지거나 넓어지도록 제어하는 줌 렌즈 및 피사체의 초점을 맞추는 포커스 렌즈 등을 포함할 수 있다. 이들 렌즈는 각각 하나의 렌즈로 구성될 수도 있지만, 복수 렌즈들의 군집으로 이루어질 수도 있다. 일 실시예로, 셔터는 가리개가 위아래로 움직이는 기계식 셔터를 포함할 수 있다. 다른 실시예로, 이미지 센서가 전기 신호의 공급을 제어하여 셔터 역할을 대신 수행할 수 있다. 이미지 센서는 광학 신호를 수광하여 전기 신호로 변환하여 제어부(130)에 전송할 수 있다. 이미지 센서로는 예를 들어, CCD(Charge Coupled Device) 센서, CMOS(Complementary Metal Oxide Semiconductor) 센서 등을 포함할 수 있다.According to an embodiment of the present invention, the
카메라 모듈은 렌즈, 조리개, 셔터를 구동하기 위한 모터를 포함할 수 있다. 예를 들어, 모터는 오터 포커스, 자동 노출 조정, 조리개 조정, 줌, 초점 변경 등의 동작을 실행하기 위하여 렌즈의 위치, 조리개의 개폐, 셔터의 동작 등을 구동할 수 있다. 여기서, 모터는 제어부(130)로부터 제어 신호를 공급받아 렌즈, 조리개, 셔터의 구동을 제어할 수 있다.The camera module may include a lens, a diaphragm, and a motor for driving the shutter. For example, the motor can drive the position of the lens, the opening / closing of the iris, the operation of the shutter, and the like in order to perform operations such as auto focus, automatic exposure adjustment, aperture adjustment, zooming, and focus change. Here, the motor is supplied with a control signal from the
본 발명의 일 실시예에 따르면, 카메라 모듈은 디스플레이부(110)의 전면(즉, 전자 장치의 전면)을 촬영할 수 있다. 카메라 모듈은 디스플레이부(110)의 전면을 촬영하여 이미지 또는 동영상을 생성할 수 있다. 카메라 모듈은 생성한 이미지 또는 동영상을 제어부(130)에 전송할 수 있다. 본 발명의 다양한 실시예에 따르면, 사용자가 전자 장치의 전면부 쪽으로 접근하는 경우, 상기 카메라 모듈은 접근한 사용자를 촬영할 수 있다.According to an embodiment of the present invention, the camera module may take a picture of the front face of the display unit 110 (i.e., the front face of the electronic device). The camera module may photograph an entire surface of the
본 발명의 일 실시예에 따르면, 카메라 모듈은 전자 장치의 상단 중앙에 배치될 수 있다. 카메라 모듈은 디스플레이부(110)가 거울로 동작하는 경우, 사용자의 모습이 거울에 비치는 모습과 동일한 이미지 또는 동영상을 생성하도록 배치될 수 있다. 예를 들어, 사용자가 거울로 동작 중인 디스플레이부(110)에 비치는 모습과 카메라 모듈이 생성한 이미지는 같은 형태일 수 있다. 본 발명의 다양한 실시예들에 따르면, 카메라 모듈이 생성한 이미지가 디스플레이부(110)에 비치는 모습과 일치할 수 있도록 카메라 모듈의 위치 및 각도는 다르게 설정될 수 있다. 본 발명의 일 실시예에 따르면, 센서부(120)가 감지한 사용자의 거리에 따라 상기 카메라 모듈의 촬영 각도 및 배율이 조절될 수 있다.According to one embodiment of the present invention, the camera module may be disposed in the upper center of the electronic device. The camera module may be arranged to generate the same image or moving picture as that of the user when the
제어부(130)는 디스플레이부(110)를 거울로만 동작하도록 제어할 수 있다. 제어부(130)는 디스플레이부(110)가 사용자 인터페이스를 표시하도록 제어할 수 있다. 본 발명의 일 실시예에 따르면, 디스플레이부(110)는 사용자 인터페이스를 표시하기 전에는 거울로 동작할 수 있다. 예를 들어, 플레이부의 후방에 배치되는 백라이트를 제어하여 디스플레이부(110)를 거울로 동작하도록 제어할 수 있다. 제어부(130)가 디스플레이부(110)의 백라이트를 끄는 경우, 디스플레이부(110)가 거울로 동작할 수 있다. 제어부(130)가 디스플레이부(110)의 백라이트를 키는 경우, 디스플레이부(110)는 사용자 인터페이스를 표시하는 표시 화면으로 동작할 수 있다. 본 발명의 다양한 실시예들에 따르면, 제어부(130)는 거울로 동작 중인 디스플레이부(110)를 제어하여 사용자 인터페이스를 표시하게 함으로써, 디스플레이부(110)가 거울로 동작하면서 동시에 사용자 인터페이스를 표시하도록 제어할 수 있다.The
제어부(130)는 센서부(120)로부터 감지 신호를 수신하여, 사용자의 접근을 감지할 수 있다. 제어부(130)는 사용자가 디스플레이부(110)의 전면에 기 설정된 거리 이상 떨어져 있는 것을 감지한 경우에 디스플레이부(110)가 사용자 인터페이스를 표시하도록 제어할 수 있다. The
제어부(130)는 센서부(120)가 생성한 이미지를 이용하여 디스플레이부(110)에 비치는 사용자의 신체 영역을 판단할 수 있다. 제어부(130)는 디스플레이부(110)에 표시된 적어도 하나의 사용자 인터페이스와 사용자의 신체 영역의 적어도 일부분이 중첩되는지 판단할 수 있다. 예를 들어, 제어부(130)는 센서부(120)가 촬영한 이미지를 이미지 프로세싱(image processing)하여 디스플레이부(110)의 화면 사이즈와 모양 및 크기가 일치하도록 보정할 수 있다. 본 발명의 일 실시예에 따르면, 제어부(130)는 센서부(120)가 촬영한 이미지에 포함된 사용자의 신체 부분을 판단할 수 있다. 예를 들어, 제어부(130)는 이미지의 명암값 등을 비교하여 이미지에 포함된 사용자의 신체 부분을 판단할 수 있다. 또는, 제어부(130)는 이미지에서 사용자의 얼굴 영역을 인식할 수 있다. 즉, 사용자의 신체 부분은 사용자의 얼굴 부분일 수 있다. 제어부(130)가 판단하는 사용자의 신체 부분은 사용자의 신체 전부일 수도 있고, 신체의 일부분일 수도 있다. 제어부(130)는 센서부(120)가 촬영한 이미지를 디스플레이부(110)와 매칭시킴으로써, 디스플레이부(110)에 사용자의 신체가 비치는 영역을 판단할 수 있다.The
제어부(130)는 사용자 인터페이스와 사용자의 신체 영역의 적어도 일부분이 중첩되는 경우, 사용자 인터페이스를 재설정할 수 있다. 제어부(130)는 사용자 인터페이스를 재설정함으로써, 디스플레이부(110)에 비치는 사용자의 신체 영역과 사용자 인터페이스가 중첩되지 않도록 제어할 수 있다.The
제어부(130)는 사용자 인터페이스의 크기를 조절할 수 있다. 제어부(130)는 사용자 인터페이스의 크기를 기 설정된 비율로 조절할 수 있다. 디스플레이부(110)에 복수 개의 사용자 인터페이스들이 표시된 경우, 제어부(130)는 각각의 사용자 인터페이스를 동일한 비율로 축소시킬 수도 있고, 서로 다른 비율로 축소시킬 수도 있다.The
제어부(130)는 디스플레이부(110)에 표시된 사용자 인터페이스의 위치를 이동시킬 수 있다. 예를 들어, 제어부(130)는 디스플레이부(110) 중앙에 표시된 사용자 인터페이스를 디스플레이부(110)의 상단 또는 바깥쪽으로 이동시킬 수 있다. 또는, 사용자의 신체 영역이 디스플레이부(110)의 오른쪽에 치우쳐 있는 경우, 제어부(130)는 사용자 인터페이스를 디스플레이부(110)의 좌측으로 이동시킬 수도 있다. 즉, 제어부(130)는 디스플레이부(110)에 비치는 사용자의 신체 영역을 제외한 다른 위치로 사용자 인터페이스를 이동시킬 수 있다.The
본 발명의 일 실시예에 따르면, 제어부(130)는 디스플레이부(110) 전 부분에 사용자 인터페이스(예를 들면, 애플리케이션 실행 아이콘)이 표시되어 있는 경우, 사용자 인터페이스의 크기를 축소시킨 후 사용자의 신체 영역의 밖으로 사용자 인터페이스를 이동시킬 수 있다. 즉, 제어부(130)는 표시된 사용자 인터페이스들이 전부 사용자의 신체 영역 밖에 위치하도록 사용자 인터페이스들의 크기 및 위치를 변경할 수 있다.According to one embodiment of the present invention, when a user interface (for example, an application execution icon) is displayed on the entire portion of the
본 발명의 일 실시예에 따르면, 제어부(130)는 기 설정된 크기 이상으로 사용자 인터페이스의 크기를 제한할 수 있다. 즉, 제어부(130)는 기 설정된 크기 미만으로 사용자 인터페이스의 크기가 줄어들어 사용자가 사용자 인터페이스를 식별하지 못하게 되는 경우를 방지할 수 있다. 제어부(130)는 사용자의 입력에 따라 기준이 되는 상기 기 설정된 크기를 변경할 수 있다. 이 경우, 제어부(130)는 기 설정된 최소의 크기로 사용자 인터페이스를 변경한 후, 디스플레이부(110)의 화면 안에서 사용자의 신체 영역과 중첩되는 부분이 최소가 되도록 사용자 인터페이스들을 이동시킬 수 있다.According to an embodiment of the present invention, the
본 발명의 다양한 실시예들에 따르면, 전자 장치(100)는 사용자 인터페이스의 크기를 최소로 축소하고, 사용자 인터페이스의 위치를 디스플레이부(110) 화면의 최대한 외곽으로 이동시킨 경우에도 사용자 인터페이스와 사용자의 신체 영역이 중첩되는 경우, 사용자 인터페이스의 크기 및 위치를 기 설정된 초기 상태로 재설정할 수 있다.According to various embodiments of the present invention, even when the size of the user interface is reduced to a minimum and the position of the user interface is shifted to a maximum outline of the screen of the
일 실시예에 따르면, 제어부(130)는 디스플레이부(110)에 비치는 사용자의 신체 영역이 일정 영역 이상인 경우에 디스플레이부(110)에 표시된 사용자 인터페이스를 재설정할 수 있다. 예를 들어, 제어부(130)는 사용자의 신체 영역이 기 설정된 면적 이상인지 판단할 수 있다. 제어부(130)는 사용자의 신체 영역이 디스플레이부(110)의 전체 화면 중 일정 비율 이상을 차지하는지 판단할 수 있다. 제어부(130)는 사용자의 신체 영역이 일정 면적 이상이 되거나, 디스플레이부(110)의 일정 비율 이상을 차지하는 경우에 기 표시된 사용자 인터페이스의 크기 또는 위치를 재설정할 수 있다. 이 경우, 상기 일정 면적 또는 일정 비율은 기 설정된 값일 수도 있고, 사용자의 입력에 따라 설정 또는 변경될 수도 있다. 예를 들어, 제어부(130)는 사용자의 신체 영역과 디스플레이부(110)에 표시된 사용자 인터페이스가 겹쳐지지 않도록 사용자 인터페이스의 크기를 축소할 수 있다. 제어부(130)는 사용자 인터페이스가 사용자의 신체 영역과 겹쳐지지 않도록 사용자 인터페이스를 사용자의 신체 영역 외의 영역으로 이동시킬 수 있다. 제어부(130)는 사용자 인터페이스의 크기를 축소하면서 사용자의 신체 영역 외의 영역으로 이동시켜 사용자 인터페이스를 재배치할 수 있다.According to one embodiment, the
디스플레이부(110)에 비치는 사용자의 신체 영역이 협소한 부분만을 차지하는 경우에는 사용자가 표시된 사용자 인터페이스를 보는데 큰 불편함을 느끼지 않을 수 있다. 이 경우, 제어부(130)는 디스플레이부(110)에 비치는 사용자의 신체 영역이 일정 크기 미만인 경우, 표시된 사용자 인터페이스를 재설정하지 않고 동일하게 표시할 수 있다. 일 실시예에 따르면, 제어부(130)는 사용자의 신체 영역이 일정 크기 미만인 경우에도, 사용자 인터페이스의 크기 및 위치를 변경하여 재배치할 수 있다.If the user's body area occupied by the
일 실시예에 따르면, 제어부(130)는 사용자 인터페이스와 디스플레이부(110)에 비친 사용자의 신체 영역이 겹치는 경우에 기 설정된 시간 내에 사용자로부터 입력이 수신되는지를 확인할 수 있다. 제어부(130)는 기 설정된 시간 내에 사용자로부터 입력이 수신되면, 표시 중인 사용자 인터페이스의 재설정 없이 사용자 입력에 대응되는 기능을 수행할 수 있다. 제어부(130)는 사용자로부터 기 설정된 시간 내에 입력이 수신되지 않으면, 사용자 인터페이스를 사용자의 신체 영역과 중첩되지 않도록 재설정할 수 있다. 제어부(130)는 사용자의 설정 입력에 따라 사용자의 입력 수신 여부를 판단하기 위한 기 설정된 시간을 변경할 수 있다. 제어부(130)는 사용자 인터페이스를 재설정한 후에 사용자로부터 입력을 수신한 경우, 사용자로부터의 입력에 기반하여 사용자 인터페이스의 크기 또는 위치를 재설정할 수 있다. 예를 들어, 제어부(130)는 사용자의 터치 입력이 수신된 사용자 인터페이스의 크기를 확대하거나, 사용자의 터치 입력이 수신된 사용자 인터페이스의 표시 위치를 디스플레이부(110)의 중앙 부분으로 변경할 수 있다.According to one embodiment, when the user's body region overlaps with the user interface on the
일 실시예에 따르면, 제어부(130)는 특정 애플리케이션 또는 특정 사용자 인터페이스가 실행 중이지 않은 경우에 디스플레이부(110)에 표시된 사용자 인터페이스를 재설정할 수 있다. 예를 들어, 전자 장치(100)가 특정 특정 애플리케이션 실행 화면을 표시하고 있거나, 또는 특정 사용자 인터페이스 실행 화면을 표시하고 있는 중인 경우에는 사용자가 전자 장치(100)를 거울 기능 외에 실행 중인 애플리케이션 또는 사용자 인터페이스를 위해 사용하고 있는 중일 수 있다. 이 경우, 사용자는 일부 거울에 비친 신체 영역과 상기 애플리케이션 실행 화면 또는 사용자 인터페이스 실행 화면이 겹치더라도, 상기 애플리케이션 실행 화면 또는 사용자 인터페이스 실행 화면을 디스플레이부(110)의 가운데에 표시하거나, 큰 화면으로 표시하길 원할 수 있다. 제어부(130)는 디스플레이부(110)가 특정 애플리케이션 실행 화면 또는 사용자 인터페이스 실행 화면을 표시 중인 경우에는, 상기 실행 화면을 디스플레이부(110)의 중앙에 재배치하거나, 또는 실행 화면의 크기를 확대할 수 있다. 또는, 제어부(110)는 디스플레이부(110)가 특정 애플리케이션 실행 화면 또는 사용자 인터페이스 실행 화면을 표시 중인 경우에 디스플레이부(110)에 표시된 사용자 인터페이스를 디스플레이부(110)에 사용자의 신체가 비치는 사용자의 신체 영역 외부로 이동시키거나, 크기를 축소하지 않을 수도 있다. 예를 들어, 전자 장치(100)가 멀티미디어 재생 애플리케이션을 실행 중인 경우에 제어부(130)는 디스플레이부(110)에 표시된 사용자 인터페이스(예를 들어, 멀티미디어 재생 화면, 멀티미디어 애플리케이션 실행 화면 등)의 크기 및 위치를 변경하지 않고 그대로 유지할 수 있다. 다른 예로, 전자 장치(100)가 사용자의 입력에 따라 날씨 애플리케이션을 실행 중인 경우, 제어부(130)는 표시된 사용자 인터페이스(예를 들어, 날씨 애플리케이션 화면)와 사용자의 신체 영역이 겹치게 되더라도 사용자 인터페이스(예를 들어, 날씨 애플리케이션 화면)의 크기 및 위치를 변경하지 않고 유지할 수 있다.According to one embodiment, the
일 실시예에 따르면, 제어부(130)는 사용자의 입력에 따라 특정 애플리케이션 또는 특정 사용자 인터페이스를 활성화시킨 경우에, 이전에 크기를 축소하였던 사용자 인터페이스(예를 들면, 특정 애플리케이션의 실행 화면, 또는 사용자 인터페이스의 실행 화면 등)의 크기를 다시 확대할 수 있다. 또는, 제어부(130)는 이전에 사용자의 신체 영역 밖으로 이동시켰던 사용자 인터페이스를 초기 설정된 위치 또는 새로운 위치로 재배치할 수 있다.According to one embodiment, when a specific application or a specific user interface is activated according to a user's input, the
일 실시예에 따르면, 제어부(110)는 사용자로부터 특정 사용자 인터페이스 또는 특정 애플리케이션을 실행하기 위한 입력을 수신하면, 사용자의 입력에 따라 실행시킨 애플리케이션 또는 사용자 인터페이스에 따라 디스플레이부(110)에 새롭게 표시되는 사용자 인터페이스(예를 들어, 실행 시킨 애플리케이션 또는 사용자 인터페이스의 실행 화면)의 크기 및 위치는 사용자의 신체 영역과 겹치더라도 재설정하지 않고 표시할 수 있다. 또는, 제어부(130)는 새롭게 표시되는 사용자 인터페이스의 크기를 확대하거나, 화면의 다른 위치에 재배치할 수도 있다. 또는, 제어부(130)는 새로운 사용자 인터페이스가 디스플레이부(110)에 표시되는 경우, 디스플레이부(110)에 표시된 적어도 하나 이상의 인터페이스의 위치 및 크기를 재설정할 수 있다.According to one embodiment, when the
제어부(130)는 디스플레이부(110)의 전면에 사용자가 감지되지 않으면, 사용자 인터페이스의 크기 및 위치를 기 설정된 초기 상태로 재설정할 수 있다.The
통신부(140)는 전자 장치의 무선 통신 기능을 지원하며,전자 장치가 이동 통신 기능을 지원하는 경우 이동 통신 모듈로서 구성될 수 있다.통신부(140)는 송신되는 무선 신호의 주파수를 상승 변환 및 증폭하는 RF(Radio Frequency) 송신부 및 수신되는 무선 신호를 저잡음 증폭하고 주파수를 하강 변환하는 RF 수신부 등을 포함할 수 있다.또한,전자 장치가 와이파이 통신,블루투스 통신,지그비(Zigbee) 통신, UWB(Ultra Wideband) 통신 및NFC(Near Field Communication) 통신 등과 같은 근거리 무선 통신 기능을 지원하는 경우 통신부(140)는 와이파이 통신 모듈,블루투스 통신 모듈, 지그비(Zigbee) 통신 모듈, UWB 통신 모듈, NFC 통신 모듈 등을 포함할 수 있다.특히,본 발명의 일 실시 예에 따른 통신부(140)는 제어부(130)의 제어 하에 다른 전자 장치 또는 특정 서버로부터 사용자의 요청에 따른 각종 생활 정보를 수신할 수 있다. 예를 들어, 통신부(140)는 날씨 정보, 교통 정보, 지도 정보 또는 현재의 시간 정보를 외부 네트워크로부터 수신할 수 있다. 통신부(140)는 사용자가 요청한 각종 이미지 또는 멀티미디어 컨텐츠를 외부 네트워크로부터 수신할 수 있다.The
저장부(150) 는 영상 데이터, 음성 데이터, 카메라부로부터 입력된 데이터, 연산 처리를 위한 데이터, 전자 장치(100)의 동작에 필요한 알고리즘, 설정 데이터, 가이드 정보 등을 포함할 수 있으며, 또한 처리 결과 등을 임시 저장할 수 있다. 저장부(150)는 휘발성 메모리 또는 비 휘발성 메모리를 포함할 수 있다. 예를 들어, 휘발성 메모리는 에스램(Static Random Access Memory, SRAM), 디램(Dynamic Random Access Memory, DRAM) 등을 포함할 수 있으며, 비휘발성 메모리는 롬(Read Only Memory, ROM), 플래쉬 메모리(Flash Memory), 하드 디스크(Hard Disk), SD 카드(Secure Digital Memory Card), MMC 카드(Multi-Media Card) 등을 포함할 수 있다.The
오디오부(160)는 음성과 전기신호를 쌍방향으로 변화시킬 수 있다. 오디오부(160), 예를 들어, 스피커, 리시버, 이어폰 또는 마이크 중 적어도 하나를 포함하여 입력 또는 출력되는 음성 정보를 변환시킬 수 있다. 본 발명의 일 실시예에 의하면, 오디오부(160)는 디스플레이부(110)에 재생 중인 컨텐츠와관련된 음성을 출력할 수 있다. 오디오부(160)는 사용자로부터 음성 신호를 입력 받아 전기 신호로 변환하여 제어부(130)에 전달할 수 있다.The
입력부(170)는 터치 패널(touch panel), (디지털) 펜 센서(pen sensor), 키(key) 또는 초음파(ultrasonic) 입력 장치를 포함할 수 있다. 터치 패널은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 터치 패널은 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 인식이 가능하다. 터치 패널은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 터치 패널은 사용자에게 촉각 반응을 제공할 수 있다. The
펜 센서는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 시트(sheet)를 이용하여 구현될 수 있다. 키는, 예를 들면, 물리적인 버튼, 광학식 키 또는 키 패드를 포함할 수 있다. 초음파(ultrasonic) 입력 장치는 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치(100)에서 마이크(미도시)로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다.The pen sensor can be implemented, for example, using the same or similar method as receiving the user's touch input, or using a separate recognizing sheet. The key may include, for example, a physical button, an optical key or a keypad. The ultrasonic input device is a device that can confirm data by sensing a sound wave with a microphone (not shown) in the
본 발명의 일 실시예에 따르면, 입력부(170)는 사용자로부터 입력을 수신할 수 있다. 예를 들어, 입력부(170)는 사용자로부터 디스플레이부(110)에 표시된 특정 사용자 인터페이스를 제어하기 위한 입력을 수신할 수 있다. 예를 들어, 입력부(170)는 사용자로부터 특정 기능을 수행하기 위한 입력을 수신할 수 있다.According to one embodiment of the present invention, the
본 발명의 일 실시예에 따르면, 디스플레이부(110) 및 입력부(170)는 하나의 모듈로서 구현될 수 있다. 예를 들어, 디스플레이부(110) 및 입력부(170)는 터치 스크린일 수 있다. 터치스크린은 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치스크린은 터치되는 위치 및 면적뿐만 아니라, 적용한 터치 방식에 따라 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 터치스크린에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기(미도시)로 전달될 수 있다. 터치 제어기(미도시)는 그 신호(들)를 처리한 다음 해당 데이터를 제어부(130)로 전달할 수 있다.터치 스크린은 디스플레이부(110)의 기능을 수행하는 표시 패널 및 입력부(170)의 기능을 수행하는 터치 패널을 포함할 수 있다. 터치스크린(즉, 디스플레이부(110) 및 입력부(170))는 터치스크린 표면에 접촉하는 사용자의 터치 이벤트 입력(예컨대, 터치 기반의 롱 프레스(long press) 입력, 터치 기반의 숏 프레스(short press) 입력, 싱글터치(single-touch) 기반의 입력, 멀티터치(multi-touch) 기반의 입력, 터치 기반의 제스처(예컨대, 드래그(drag) 등) 입력 등)을 감지할 수 있다. 디스플레이부(110)는 표면에서 사용자의 터치 이벤트를 감지한 경우, 상기 터치 이벤트가 발생된 좌표를 검출하고 검출된 좌표를 제어부(130)에 전달할 수 있다.According to an embodiment of the present invention, the
이하, 본 발명의 다양한 실시예들을 설명함에 있어서, 디스플레이부(110)와 입력부(170)를 하나의 터치 스크린으로 가정하여 설명하나, 이에 한정되는 것은 아니다.In the following description of the various embodiments of the present invention, the
도 2는 본 발명의 일 실시예에 의한 전자 장치(100)의 사용자 인터페이스 제공 방법의 순서도이다.2 is a flowchart of a method of providing a user interface of the
210 동작에서, 전자 장치(100)는 디스플레이부(110)를 거울로 동작 시킬 수 있다. 디스플레이부(110)는 거울(또는, 하프 거울(half mirror))을 포함할 수 있다. 즉, 디스플레이부(110)는 사용자 인터페이스를 표시하기 전에는 일반적인 거울로 동작할 수 있다. 210 동작에서, 전자 장치(100)는 디스플레이부(110)를 사용자 인터페이스를 표시하기 전의 거울 전용의 상태로 동작시킬 수 있다.In
220 동작에서, 전자 장치(100)는 전자 장치(100)의 전면부 쪽에 사용자가 접근한 것을 감지할 수 있다. 즉, 전자 장치(100)는 디스플레이부(110)의 전면부 쪽에 사용자가 접근한 것을 감지할 수 있다. 전자 장치(100)는 사용자의 접근을 감지하면, 230동작을 수행할 수 있다. 전자 장치(100)는 사용자의 접근을 감지하지 못하면 계속해서 디스플레이부(110)를 거울로 동작시킬 수 있다. 예를 들어, 전자 장치(100)는 근접 센서 또는 IR 센서 등을 사용하여 사용자가 디스플레이부(110) 전면의 기 설정된 거리 이내로 접근한 것을 감지할 수 있다.In
230 동작에서, 전자 장치(100)는 디스플레이부(110)에 사용자 인터페이스를 표시할 수 있다. 사용자 인터페이스는 애플리케이션 실행 화면, 애플리케이션 실행 아이콘, 이미지 컨텐츠, 또는 멀티미디어 컨텐츠를 포함할 수 있다. 본 발명의 다양한 실시예에서, 사용자 인터페이스는 디스플레이부(110)에 표시되는 다양한 오브젝트들을 모두 포함할 수 있다. 전자 장치(100)가 디스플레이부(110)에 사용자 인터페이스를 표시함으로써, 디스플레이부(110)는 거울로 동작하는 화면 상에 사용자 인터페이스를 표시할 수 있다. 예를 들어, 디스플레이부(110)에 애플리케이션 실행 아이콘들을 표시하는 경우, 표시된 애플리케이션 실행 아이콘들 외의 영역은 거울 화면일 수 있다.In
240 동작에서, 전자 장치(100)는 디스플레이부(110)의 전면의 피사체를 촬영할 수 있다. 예를 들어, 전자 장치(100)는 카메라 모듈을 이용하여 디스플레이부(110) 전면의 피사체를 촬영하여 이미지 또는 동영상을 생성할 수 있다.In
250 동작에서, 전자 장치(100)는 디스플레이부(110)에 비치는 사용자의 영역을 판단할 수 있다. 전자 장치(100)는 240 동작에서 생성한 이미지를 이용하여 디스플레이부(110)에 비치는 사용자의 신체 영역을 판단할 수 있다. 전자 장치(100)는 디스플레이부(110)의 전면을 촬영한 이미지(또는 동영상)에서 사용자의 신체 부분을 판단할 수 있다. 예를 들어, 전자 장치(100)는 이미지(또는 동영상)에서 얼굴 인식을 통한 사용자의 얼굴 영역을 판단할 수 있다. 전자 장치(100)는 촬영한 이미지(또는 동영상)를 이미지 프로세싱을 통하여 보정할 수 있다. 예를 들어, 전자 장치(100)는 촬영한 이미지(또는 동영상)를 디스플레이부(110)와 동일한 크기 및 형태로 보정할 수 있다. 전자 장치(100)는 촬영한 이미지(또는 동영상)에 특정 영역에 사용자의 신체 영역이 포함된 경우, 이를 디스플레이부(110)의 화면과 매핑함으로써, 사용자의 신체가 거울로 동작 중인 디스플레이부(110)에 비치는 사용자의 신체 영역을 판단할 수 있다. 본 발명의 일 실시예에서, 전자 장치(100)는 얼굴 인식을 수행하여 사용자의 신체 중 얼굴 영역을 판단할 수 있다. 즉, 전자 장치(100)는 디스플레이 부에 비치는 사용자의 얼굴 영역을 판단할 수 있다. In
본 발명의 다양한 실시예들에 따르면, 전자 장치(100)는 거울로 동작 중인 디스플레이에 비치는(또는 반사되는) 모습과 동일한 영상을 촬영할 수 있다. 이를 위해서, 전자 장치(100)는 카메라 모듈의 위치, 촬영 각도, 촬영 거리 및 촬영하여 생성할 이미지 또는 동영상의 크기를 변경할 수 있다. 예를 들어, 전자 장치(100)가 벽면에 고정되는 경우, 센서부(120)(예를 들면, 카메라 모듈)가 전자 장치(100)가 고정된 높이에 대응되는 높이의 전면을 촬영하도록 설정될 수 있다. 본 발명의 일 실시예에 따른 전자 장치(100)는 사용자가 감지된 거리에 따라 센서부(120)(예를 들면, 카메라 모듈)가 촬영하는 촬영 각도 또는 촬영 배율을 변경할 수 있다. 전자 장치(100)는, 촬영 및 보정한 이미지 또는 동영상을 기반하여 디스플레이부(110)에 비친 사용자의 신체 영역을 판단할 수 있다.According to various embodiments of the present invention, the
260 동작에서, 전자 장치(100)는 디스플레이부(110)에 표시된 적어도 하나의 사용자 인터페이스와 디스플레이부(110)에 비치는 사용자의 신체 영역의 적어도 일부분이 중첩되는지 판단할 수 있다. 예를 들어, 전자 장치(100)는 250 동작에서 판단한 디스플레이부(110)에 비치는 사용자의 신체 영역의 적어도 일부분이 디스플레이부(110)에 표시한 사용자 인터페이스와 중첩되는 부분이 있는지 판단할 수 있다. 전자 장치(100)는, 사용자 인터페이스와 사용자의 신체 영역이 중첩되는 것으로 판단하면 270동작을 수행할 수 있다. 전자 장치(100)는 사용자 인터페이스와 사용자의 신체 영역이 중첩되는 부분이 없다고 판단하면, 280 동작을 수행할 수 있다.In
270 동작에서, 전자 장치(100)는 디스플레이부(110)에 표시한 사용자 인터페이스를 재설정할 수 있다. 전자 장치(100)는 사용자 인터페이스와 디스플레이부(110)에 비치는 사용자의 신체 영역이 중첩되지 않도록 사용자 인터페이스의 크기 또는 위치를 재설정할 수 있다. 예를 들어, 전자 장치(100)는 사용자의 신체 영역과 디스플레이부(110)에 표시된 사용자 인터페이스가 겹쳐지지 않도록 디스플레이부(110)에 표시된 사용자 인터페이스의 크기를 축소시킬 수 있다. 전자 장치(100)는 사용자 인터페이스가 사용자의 신체 영역과 겹쳐지지 않도록 디스플레이부(110)에 표시된 사용자 인터페이스를 디스플레이부(110)의 상단 또는 바깥쪽으로 이동시킬 수 있다. 전자 장치(100)는 사용자 인터페이스의 크기를 축소시키면서 위치를 다른 곳으로 이동시킬 수 있다.In
일 실시예에 따르면, 전자 장치(100)는 디스플레이부(110)에 비치는 사용자의 신체 영역이 일정 영역 이상인 경우에 디스플레이부(110)에 표시된 사용자 인터페이스를 재설정할 수 있다. 예를 들어, 전자 장치(100)는 사용자의 신체 영역이 기 설정된 면적 이상인지 판단할 수 있다. 전자 장치(100)는 사용자의 신체 영역이 디스플레이부(110)의 전체 화면 중 일정 비율 이상을 차지하는지 판단할 수 있다. 전자 장치(100)는 사용자의 신체 영역이 일정 면적 이상이 되거나, 디스플레이부(110)의 일정 비율 이상을 차지하는 경우에 디스플레이부(110)에 표시된 사용자 인터페이스의 크기 또는 위치를 재설정할 수 있다. 이 경우, 상기 일정 면적 또는 일정 비율은 기 설정된 값일 수도 있고, 사용자의 입력에 따라 설정 또는 변경될 수도 있다. 일 실시예에 따르면, 전자 장치(100)는 사용자의 신체 영역이 일정 크기 미만인 경우에도, 사용자 인터페이스의 크기 및 위치를 변경하여 재배치할 수 있다. 또는, 전자 장치(100)는 디스플레이부(110)에 비치는 사용자의 신체 영역이 일정 영역 미만인 경우, 표시된 사용자 인터페이스를 재설정하지 않고 동일하게 표시할 수도 있다.According to one embodiment, the
일 실시예에 따르면, 전자 장치(100)는 특정 애플리케이션 또는 특정 사용자 인터페이스가 실행 중이지 않은 경우에 디스플레이부(110)에 표시된 사용자 인터페이스를 재설정할 수 있다. 예를 들어, 전자 장치(100)가 특정 특정 애플리케이션 실행 화면을 표시하고 있거나, 또는 특정 사용자 인터페이스 실행 화면을 표시하고 있는 중인 경우에는 사용자가 전자 장치(100)를 거울 외에 목적으로 사용하고 있는 중일 수 있다. 이 경우, 사용자는 일부 거울에 비친 신체 영역과 상기 애플리케이션 실행 화면 또는 사용자 인터페이스 실행 화면이 겹치더라도, 상기 애플리케이션 실행 화면 또는 사용자 인터페이스 실행 화면을 디스플레이부(110)의 가운데에 표시하거나, 큰 화면으로 표시하길 원할 수 있다. 따라서, 전자 장치(100)는 특정 애플리케이션 실행 화면 또는 사용자 인터페이스 실행 화면을 표시 중인 경우에는 디스플레이부(110)에 표시된 사용자 인터페이스를 재설정하지 않을 수도 있다. 예를 들어, 전자 장치(100)가 멀티미디어 재생 애플리케이션을 실행 중인 경우에 전자 장치(100)는 디스플레이부(110)에 표시된 사용자 인터페이스(예를 들어, 멀티미디어 재생 화면, 멀티미디어 애플리케이션 실행 화면 등)의 크기 및 위치를 변경하지 않고 그대로 유지할 수 있다. 일 실시예에 따르면, 전자 장치(100)는 디스플레이부(110)가 특정 애플리케이션 실행 화면 또는 사용자 인터페이스 실행 화면을 표시 중인 경우에는, 상기 실행 화면을 디스플레이부(110)의 중앙에 재배치하거나, 또는 실행 화면의 크기를 확대할 수 있다.일 실시예에 따르면, 전자 장치(100)는 사용자로부터 특정 사용자 인터페이스 또는 특정 애플리케이션을 실행하기 위한 입력이 없는 경우에만 디스플레이부(110)에 표시된 사용자 인터페이스를 재설정할 수 있다. 예를 들어, 전자 장치(100)는 사용자로부터 특정 애플리케이션 또는 특정 사용자 인터페이스를 실행하기 위한 입력을 수신하면, 사용자의 입력에 따라 실행시킨 애플리케이션 또는 사용자 인터페이스에 따라 디스플레이부(110)에 새롭게 표시되는 사용자 인터페이스(예를 들어, 실행 시킨 애플리케이션 또는 사용자 인터페이스의 실행 화면)의 크기 및 위치는 사용자의 신체 영역과 겹치더라도 재설정하지 않고 표시할 수 있다. 예를 들어, 전자 장치(100)가 사용자의 입력에 따라 날씨 애플리케이션을 실행 중인 경우, 전자 장치(100)는 표시된 사용자 인터페이스(예를 들어, 날씨 애플리케이션 화면)와 사용자의 신체 영역이 겹치게 되더라도 사용자 인터페이스(예를 들어, 날씨 애플리케이션 화면)의 크기 및 위치를 변경하지 않고 유지할 수 있다.According to one embodiment, the
일 실시예에 따르면, 전자 장치(100)는 사용자의 입력에 따라 특정 애플리케이션 또는 특정 사용자 인터페이스를 활성화시킨 경우에, 이전에 크기를 축소하였던 사용자 인터페이스(예를 들면, 특정 애플리케이션의 실행 화면, 또는 사용자 인터페이스의 실행 화면 등)의 크기를 다시 확대할 수 있다. 또는, 제어부(130)는 이전에 사용자의 신체 영역 밖으로 이동시켰던 사용자 인터페이스를 초기 설정된 위치 또는 새로운 위치로 재배치할 수 있다.According to one embodiment, the
일 실시예에 따르면, 전자 장치(100)는 사용자의 입력 등에 의하여 디스플레이부(110)에 새롭게 표시되는 사용자 인터페이스가 있는 경우, 새롭게 표시되는 사용자 인터페이스의 크기를 확대하거나, 화면의 다른 위치에 재배치할 수도 있다. 전자 장치(100)는 새로운 사용자 인터페이스가 디스플레이부(110)에 표시되는 경우, 디스플레이부(110)에 표시된 적어도 하나 이상의 인터페이스의 위치 및 크기를 재설정할 수 있다.According to one embodiment, when there is a user interface newly displayed on the
280 동작에서, 전자 장치(100)는 사용자가 디스플레이부(110)의 전면에 계속 감지되는지 판단할 수 있다. 전자 장치(100)는 사용자가 감지되면 240 동작을 반복적으로 수행할 수 있다. 전자 장치(100)는 사용자가 감지되지 않으면 290 동작을 수행할 수 있다.In
290 동작에서, 전자 장치(100)는 디스플레이부(110)에 표시된 사용자 인터페이스를 기 설정된 초기 상태로 재설정할 수 있다. 예를 들어, 디스플레이부(110)의 중앙에 표시되던 사용자 인터페이스를 디스플레이부(110)의 상단으로 이동시킨 경우, 전자 장치(100)는 사용자 인터페이스를 디스플레이부(110) 중앙으로 원위치 시킬 수 있다. 전자 장치(100)는 사용자 인터페이스를 축소시켰던 경우, 사용자 인터페이스를 초기 설정된 크기로 다시 확대할 수 있다. 본 발명의 다양한 실시예들에 따르면, 전자 장치(100)는 사용자가 감지되지 않으면, 디스플레이부(110)를 다시 거울 전용으로 동작하도록 제어할 수 있다. 예를 들어, 전자 장치(100)는 디스플레이부(110)에 표시하였던 사용자 인터페이스의 표시를 중단할 수 있다. In
본 발명의 다양한 실시예들에 따르면, 전자 장치(100)는 디스플레이부(110)의 전면에 감지되는 사용자의 거리에 멀어짐에 따라 디스플레이부(110)의 동작을 제어할 수 있다. 예를 들어, 사용자의 거리가 기 설정된 거리 이상 멀어지면, 사용자 인터페이스를 초기 상태로 재설정할 수 있다. 이후, 전자 장치(100)는 사용자의 거리가 일정 거리 이상 더 멀어지거나, 사용자가 더 이상 감지되지 않는 경우에 디스플레이부(110)를 거울 전용으로 동작하게 제어할 수 있다.According to various embodiments of the present invention, the
본 발명의 일 실시예에 따른 전자 장치(100)는 사용자와의 거리, 사용자의 입력 수신 여부, 사용자 인터페이스의 활성화 여부, 새로운 애플리케이션 또는 사용자 인터페이스의 실행 화면이 표시되는지 여부 등에 따라 사용자가 전자 장치(100)를 거울로 사용하는지 또는, 전자 장치(100)의 사용자 인터페이스를 사용하는 중인지를 판단할 수 있다. 따라서, 본 발명의 일 실시예에 의한 전자 장치(100)는 사용자의 사용 의도에 맞게 디스플레이부(110)에 표시된 사용자 인터페이스의 크기, 또는 위치를 재설정하여 표시할 수 있다.The
본 발명의 다양한 실시예들에 따르면, 본 발명의 다양한 실시예들에 따른 사용자 인터페이스 제공 방법을 수행하도록 하는 명령어들을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체가 제공될 수 있다.According to various embodiments of the present invention, a computer-readable recording medium having recorded therein one or more programs including instructions for performing a method of providing a user interface according to various embodiments of the present invention may be provided.
본 발명의 다양한 실시예들에 따른 컴퓨터로 읽을 수 있는 기록 매체에 있어서, 사용자 인터페이스 제공 방법은 거울로 동작 중인 상기 디스플레이부(110)에 상기 사용자 인터페이스를 표시하는 동작, 상기 디스플레이부(110)에 비치는 사용자의 신체 영역을 감지하는 동작, 상기 디스플레이부(110)에 표시된 상기 적어도 하나의 사용자 인터페이스와 상기 사용자의 신체 영역이 겹치는지 판단하는 동작, 및상기 사용자 인터페이스와 상기 사용자 신체 영역이 겹치는 경우, 상기 사용자 인터페이스를 상기 사용자의 신체 영역과 겹치지 않도록 재설정하는 동작을 포함할 수 있다.In a computer-readable recording medium according to various embodiments of the present invention, a method of providing a user interface includes displaying the user interface on the
도 3a 내지 3b는 본 발명의 다양한 실시예들에 따른 전자 장치(100) 및 사용자 인터페이스 제공 방법에 따라 사용자 인터페이스의 위치를 변경하는 동작을 설명하기 위한 도면이다.3A and 3B are diagrams for explaining an operation of changing the position of a user interface according to an
도 3a는, 전자 장치(100)가 사용자 인터페이스(301, 302, 303, 304)를 표시한 상태를 나타내는 도면이다. 도 3a는, 전자 장치(100)가 애플리케이션 실행 아이콘들(301, 302, 303, 304)을디스플레이부(110) 중앙에 표시한 상태를 나타낸다. 여기서, 디스플레이부(110)는 거울로 동작 중인 경우를 가정한다. 디스플레이부(110) 상단 중앙에는 센서부(예를 들면, 카메라 모듈)(120)이 배치될 수 있다. 다만, 카메라 모듈(120)의 위치는 도시된 것에 한정되지 않는다. 사용자(320)가 디스플레이부(110)에 접근하면, 사용자(320)의 모습이 거울로 동작 중인 디스플레이부(110)에 비칠 수 있다. 사용자(320)가 디스플레이부(110)에 점점 가까이 접근할수록 디스플레이부(110)에 비치는 사용자(320)의 모습 또한 점점 커질 수 있다. 전자 장치(100)는 전자 장치(100)의 사용자 인터페이스(301, 302, 303, 304)를 사용하기 위하여 접근하는 사용자(320)를 감지할 수 있다. 디스플레이부(110)에 사용자(320)의 신체(예를 들면, 사용자(320)의 얼굴 등) 크게 비치는 경우, 디스플레이부(110)가 표시하는 사용자 인터페이스(301, 302, 303, 304)와 디스플레이부(110)에 비친 사용자의 신체 영역(310)이 겹쳐져서 사용자 인터페이스(301, 302, 303, 304)의 식별이 어려울 수 있다.3A is a diagram showing a state in which the
도 3b는 제어부(130)의 제어에 따라 디스플레이부(110)에 표시되는 사용자 인터페이스(301, 302, 303, 304)가 재설정된 모습을 나타낸다. 전자 장치(100)는 사용자의 신체 영역(디스플레이부(110)에 비치는 사용자의 얼굴 영역)(310)이 디스플레이부(110)에 표시된 사용자 인터페이스(301, 302, 303, 304)와 겹치는 것을 방지하기 위하여, 사용자 인터페이스들(301, 302, 303, 304)을 디스플레이부(110)의 상단에 재배치할 수 있다. 즉, 전자 장치(100)는 사용자 인터페이스들(301, 302, 303, 304)이 디스플레이부(110)에 표시되는 위치를 재설정할 수 있다. 본 발명의 다양한 실시예들에 따르면, 전자 장치(100)는 사용자 인터페이스들(301, 302, 303, 304)의 위치를 다양하게 재설정할 수 있다. 예를 들어, 도 3a에 도시된 것처럼 디스플레이부(110)의 상단 부분으로 사용자 인터페이스들(301, 302, 303, 304)을 이동시킬 수도 있고, 디스플레이부(110)의 바깥쪽 테두리를 둘러싸도록 사용자 인터페이스들(301, 302, 303, 304)을 분산시켜 이동시킬 수도 있다.3B shows a state in which the
도 4a 및 도 4b는 본 발명의 일 실시예에 따른 전자 장치(100) 및 사용자 인터페이스 제공 방법에 따라 사용자 인터페이스의 크기를 변경하는 동작을 설명하기 위한 도면이다.4A and 4B are views for explaining an operation of changing the size of a user interface according to an
도 4a는, 전자 장치(100)가 사용자 인터페이스를 표시한 다른 실시예를 나타내는 도면이다. 도 4a는, 전자 장치(100)가 애플리케이션 실행 아이콘들(401, 402, 403, 404)을디스플레이부(110) 상단에 일렬로 표시한 상태를 나타낸다.4A is a diagram showing another embodiment in which the
도 4b 는, 전자 장치(100)가 사용자 인터페이스(401, 402, 403, 404)의 크기를 재설정한 경우를 도시한다. 전자 장치(100)는 디스플레이부(110)에 비치는 사용자의 신체 영역(410)이 디스플레이부(110)에 표시된 사용자 인터페이스(401, 402, 403, 404)와 겹치는 것을 방지하기 위하여, 사용자 인터페이스들(401, 402, 403, 404)의 크기를 재설정할 수 있다. 즉, 전자 장치(100)는 디스플레이부(110)의 상단에 표시한 사용자 인터페이스들(401, 402, 403, 404)의 크기를 일정 비율로 축소시킨 후 표시할 수 있다. 본 발명의 일 실시예에 의하면, 전자 장치(100)는 디스플레이부(110)에 표시된 사용자 인터페이스들(401, 402, 403, 404)을 동일한 비율로 축소시킬 수도 있고, 사용자 인터페이스들(401, 402, 403, 404)의 위치에 따라 서로 다른 비율로 축소시킬 수 있다. 예를 들어, 디스플레이부(110)에 복수 개의 애플리이션 아이콘들(401, 402, 403, 404)이 일렬로 표시된 경우, 전자 장치(100)는 바깥쪽의 애플리케이션 아이콘들(403, 404)의 크기는 유지하고, 사용자의 얼굴이 비치는 중앙 부분(410)의 아이콘들(401, 402)만을 축소시켜 표시할 수도 있다.4B shows a case where the
도 5a 내지 도 5c는 본 발명의 일 실시예에 따른 전자 장치(100) 및 사용자 인터페이스 제공 방법에 따라 사용자 인터페이스의 위치 및 크기를 변경하는 동작을 설명하기 위한 도면이다.5A to 5C are views for explaining an operation of changing the position and size of a user interface according to an
도 5a는, 전자 장치(100)가 사용자 인터페이스를 표시한 상태를 나타내는 도면이다. 도 5는, 전자 장치(100)가 사용자 인터페이스의 예시로서 애플리케이션 실행 아이콘들(501, 502, 503, 504)을디스플레이부(110) 중앙에 표시한 상태를 나타낸다.5A is a diagram showing a state in which the
도 5b는 전자 장치(100)가 사용자의 접근 및 사용자(520)의 모습이 디스플레이부(110)에 비치는 모습을 감지한 경우, 사용자 인터페이스(501, 502, 503, 504)의 위치를 재설정한 상태를 나타낸다. 전자 장치(100)는 사용자의 신체 영역(510)이 디스플레이부(110)에 표시된 사용자 인터페이스(501, 502, 503, 504)와 겹치는 것을 방지하기 위하여, 사용자 인터페이스들(501, 502, 503, 504)의 크기 및 위치를 재설정할 수 있다. 예를 들어, 전자 장치(100)는 사용자 인터페이스들(501, 502, 503, 504)의 위치를 디스플레이부(110)의 상단으로 변경할 수 있다. 5B illustrates a state in which the positions of the
도 5c는 전자 장치(100)가 사용자 인터페이스(501, 502, 503, 504)의 위치를 재설정한 후, 사용자 인터페이스(501, 502, 503, 504)의 크기를 재설정한 상태를 나타낸다. 전자 장치(100)는 사용자 인터페이스들(501, 502, 503, 504)의 위치를 변경한 후, 사용자 인터페이스들(501, 502, 503, 504)이 사용자의 신체 영역(510)과 겹치는 부분이 남아있는지 판단할 수 있다. 전자 장치(100)는 적어도 하나의 사용자 인터페이스 (501, 502, 503, 504)가 사용자의 신체 영역(510)과 겹치는 경우에는, 위치가 이동된 사용자 인터페이스들(501, 502, 503, 504)의 크기를 축소시켜 표시할 수 있다.5C shows a state in which the
도 6a 및 도6b는 본 발명의 일 실시예에 따른 전자 장치(100) 및 사용자 인터페이스 제공 방법에 따라 멀티미디어 재생 화면의 크기 및 위치를 변경하는 동작을 설명하기 위한 도면이다.6A and 6B are views for explaining the operation of changing the size and position of the multimedia playback screen according to the
도 6a는, 전자 장치(100)가 사용자 인터페이스의 예시로서 멀티미디어 컨텐츠 실행 화면(601)을 디스플레이부(110) 중앙에 표시한 상태를 나타낸다. 사용자(620)가 전자 장치(100)의 전면에 접근하는 경우, 디스플레이부(110)에 표시된 멀티미디어 컨텐츠 실행 화면(601)과 사용자의 신체가 거울로 동작 중인 디스플레이부(110)에 비치는 영역(610)이 겹칠 수 있다. 이 경우, 전자 장치(100)는 멀티미디어 컨텐츠 실행 화면(601)을 재설정할 수 있다.6A shows a state in which the
도 6b는, 전자 장치(100)가 사용자의 신체 영역(사용자의 신체가 디스플레이부(110)에 비치는 영역)(610)이 디스플레이부(110)에 표시된 사용자 인터페이스(601)와 겹치는 것을 방지하기 위하여, 멀티미디어 컨텐츠 재생 화면(601)의 크기 및 위치를 재설정한 상태를 나타낸다. 즉, 전자 장치(100)는 사용자(620)의 접근을 감지하여 사용자가 디스플레이부(110)에 비치는 영역(610)과 멀티미디어 컨텐츠 재생 화면(601)이 겹치지 않도록 디스플레이부(110)에 표시되는 멀티미디어 컨텐츠 재생 화면(601)의 위치 및 크기를 재설정하여 표시할 수 있다.6B shows a state in which the
도 3 내지 도 6의 실시예에서는, 전자 장치(100)가 사용자를 감지하면 사용자 인터페이스를 바로 재설정하는 실시예를 중점으로 설명하였다. 다만, 본 발명의 다양한 실시예들에 따르면, 전자 장치(100)는 사용자의 입력이 없는 경우에만, 사용자 인터페이스를 재설정할 수도 있다. 전자 장치(100)는 사용자 입력에 따른 기능 또는 기 설정된 특정 기능이 실행 중인 경우에는 사용자 인터페이스를 재설정하지 않고 사용자 인터페이스의 표시를 유지거나, 초기 설정 상태로 재설정할 수도 있다. 또한, 본 발명의 다양한 실시예들에 따르면, 전자 장치(100)는 사용자의 입력을 수신한 경우, 표시 중인 사용자 인터페이스의 크기를 확대하거나, 사용자 인터페이스의 위치를 다른 위치(예를 들면, 화면의 가운데 등)으로 변경할 수도 있다.In the embodiments of FIGS. 3 to 6, an embodiment has been described in which the user interface is directly reset when the
도 7은 본 발명의 일 실시예에 따른 전자 장치의 사용자 인터페이스 제공 방법의 순서도이다.701 동작에서, 전자 장치(100)는 적어도 하나의 사용자 인터페이스를 표시할 수 있다, 예를 들어, 전자 장치(100)는 애플리케이션 실행 화면, 애플리케이션 실행 아이콘, 이미지 컨텐츠, 또는 멀티미디어 컨텐츠를 표시할 수 있다. 본 발명의 다양한 실시예에서, 사용자 인터페이스는 디스플레이부(110)에 표시되는 다양한 오브젝트들을 모두 포함할 수 있다. 전자 장치(100)가 디스플레이부(110)에 사용자 인터페이스를 표시함으로써, 디스플레이부(110)는 거울로 동작하는 화면 상에 사용자 인터페이스를 표시할 수 있다. 예를 들어, 디스플레이부(110)에 애플리케이션 실행 아이콘들을 표시하는 경우, 표시된 애플리케이션 실행 아이콘들 외의 영역은 거울 화면일 수 있다.7 is a flowchart of a method for providing a user interface of an electronic device according to an embodiment of the present invention. In
본 발명의 다양한 실시예들에 따르면, 전자 장치(100)는 디스플레이부(110)를 거울로 동작 시킬 수 있다. 예를 들어, 디스플레이부(110)는 거울(또는 하프 거울(half mirror))를 포함할 수 있다. 예를 들어, 전자 장치(100)는 백라이트 또는 표시 소자(예를 들어, LED 등)을 제어하여 디스플레이부(110)를 거울 또는 사용자 인터페이스를 표시하는 화면으로 동작시킬 수 있다.According to various embodiments of the present invention, the
703 동작에서, 전자 장치(100)는 사용자의 접근을 감지할 수 있다. 예를 들어, 전자 장치(100)는 디스플레이부(110)의 전면부에 사용자가 접근하는 것을 감지할 수 있다. 예를 들어, 전자 장치(100)는 근접 센서 또는 IR 센서 등을 이용하여 디스플레이부(110)의 전면부를 센싱할 수 있다. 전자 장치(100)는 사용자의 접근을 감지하면, 705 동작을 수행할 수 있다. 전자 장치(100)는 사용자의 접근이 없는 경우, 701 동작에서 계속적으로 사용자 인터페이스를 그대로 표시할 수 있다.In
본 발명의 일 실시예에 의하면, 전자 장치(100)는 디스플레이부(110)를 거울로만 동작시키는 중에 사용자의 접근을 감지한 후에 사용자 인터페이스를 표시할 수도 있다.According to an embodiment of the present invention, the
705 동작에서, 전자 장치(100)는 디스플레이부(110) 전면의 피사체를 촬영하여 이미지를 생성할 수 있다. 예를 들어, 전자 장치(100)는 카메라 모듈을 이용하여 디스플레이부(110) 전면의 피사체를 촬영하여 이미지 또는 동영상을 생성할 수 있다.In
본 발명의 일 실시예에 따르면, 전자 장치(100)는 703 동작의 사용자의 감지 여부와는 무관하게 지속적으로 디스플레이부(110) 전방의 피사체를 촬영할 수도 있다.According to an embodiment of the present invention, the
707 동작에서, 전자 장치(100)는 생성한 이미지를 이용하여 디스플레이부(110)에 비치는 사용자의 신체 영역을 판단할 수 있다. 전자 장치(100)는 705 동작에서 생성한 이미지를 이용하여 디스플레이부(110)에 비치는 사용자의 신체 영역을 인식할 수 있다. 예를 들어, 전자 장치(100)는 생성한 이미지를 이미지 프로세싱을 통하여 디스플레이부(110)와 동일한 크기 및 형태로 보정할 수 있다. 전자 장치(100)는 이미지에 포함된 사용자의 신체 영역을 검출한 후에, 디스플레이부(110)의 화면과 매핑함으로써, 사용자의 신체 가 디스플레이부(110)에 비치는 사용자의 신체 영역을 인식할 수 있다.In operation 707, the
709 동작에서, 전자 장치(100)는 디스플레이부(110)에 표시된 적어도 하나의 사용자 인터페이스와 디스플레이부(110)에 비친 사용자의 신체 영역의 적어도 일부분이 중첩되는지 판단할 수 있다. 일 실시예에 따르면, 전자 장치(100)는 사용자 인터페이스와 사용자의 신체 영역이 중첩되는 부분이 일정 면적 이상이 되는지를 확인할 수 있다. 전자 장치(100)는 사용자 인터페이스와 사용자의 신체 영역이 겹쳐진 경우, 711 동작을 수행할 수 있다. 전자 장치(100)는 사용자 인터페이스와 사용자의 신체 영역이 겹쳐지지 않은 경우, 701 동작을 다시 수행할 수 있다. 예를 들어, 전자 장치(100)는 사용자 인터페이스와 사용자의 신체 영역이 겹쳐지지 않은 경우, 기존에 표시한 사용자 인터페이스를 유지할 수 있다.In
711 동작에서, 전자 장치(100)는 기 설정된 시간 내에 사용자로부터 입력이 수신되는지 판단할 수 있다. 전자 장치(100)는 입력부(170)를 통하여 사용자로부터 입력을 수신할 수 있다. 전자 장치(100)가 수신하는 사용자의 입력은, 키 입력, 음성 입력, 제스처 입력, 터치 입력 등을 포함할 수 있다. 예를 들어, 전자 장치(100)는 사용자가 디스플레이부(110)에 표시된 특정 사용자 인터페이스를 터치하는 입력을 수신할 수 있다. 일 실시예에 따르면, 전자 장치(100)는 사용자의 설정 입력에 따라 사용장의 입력의 수신 여부를 판단하기 위해 기 설정된 시간을 변경할 수 있다.In
일 실시예에 따르면, 전자 장치(100)는 사용자로부터의 입력이 수신되는지 여부에 따라 사용자의 의도를 판단할 수 있다. 예를 들어, 전자 장치(100)는 사용자로부터 입력을 수신하면, 사용자의 의도가 전자 장치(100)를 거울이 아닌 사용자 인터페이스를 사용하기 위한 것으로 판단할 수 있다. 전자 장치(100)는 사용자로부터 입력을 수신하지 않는 경우, 사용자의 의도가 전자 장치(100)를 거울로 사용하기 위한 것으로 판단할 수 있다. 예를 들어, 전자 장치(100)는 사용자의 입력이 수신되는지에 따라 표시 중인 사용자 인터페이스의 크기 또는 위치를 재설정할지 여부를 결정할 수 있다. 전자 장치(100)는 사용자의 입력이 없는 경우, 표시 중이던 사용자 인터페이스가 사용자의 신체 영역과 겹쳐지지 않도록 사용자 인터페이스의 위치 또는 크기를 재설정하도록 결정할 수 있다. 반대로, 전자 장치(100)는 사용자의 입력이 있는 경우, 표시 중이던 사용자 인터페이스를 그대로 유지하면서, 사용자 입력에 대응되는 기능을 실행하도록 결정할 수 있다. 본 발명의 일 실시예에 따르면, 전자 장치(100)는 사용자의 입력 수신 여부에 따라 사용자의 의도를 파악하여, 사용자가 거울을 사용할 목적으로 전자 장치(100)에 접근한 경우에는 사용자의 신체 영역과 사용자 인터페이스가 겹치지 않도록 사용자 인터페이스를 재설정할 수 있다. 전자 장치(100)는 사용자가 사용자 인터페이스를 활용하기 위하여 접근한 경우에는 사용자의 입력에 따른 기능을 수행할 수 있다. 따라서, 전자 장치(100)는 사용자의 사용 의도에 따라 거울 기능 또는 다양한 컨텐츠를 제공하는 전자 장치로서의 기능을 제공하여, 사용자의 편의성 및 실용성을 증대시킬 수 있다.According to one embodiment, the
전자 장치(100)는 사용자로부터 입력을 수신하면, 719 동작을 수행할 수 있다. 전자 장치(100)는 사용자로부터 입력이 수신되지 않는 경우, 713 동작을 수행할 수 있다.When the
713 동작에서, 전자 장치(100)는 디스플에이부(110)에 표시된 사용자 인터페이스를 사용자의 신체 영역과 중첩되지 않도록 재설정할 수 있다. 예를 들어, 전자 장치(100)는 사용자의 신체 영역과 디스플레이부(110)에 표시된 사용자 인터페이스가 겹쳐지지 않도록 디스플레이부(110)에 표시된 사용자 인터페이스의 크기를 축소시킬 수 있다. 전자 장치(100)는 사용자 인터페이스가 사용자의 신체 영역과 겹쳐지지 않도록 디스플레이부(110)에 표시된 사용자 인터페이스를 디스플레이부(110)의 상단 또는 바깥쪽으로 이동시킬 수 있다. 전자 장치(100)는 사용자 인터페이스의 크기를 축소시키면서 위치를 다른 곳으로 이동시킬 수 있다.In
본 발명의 다양한 실시예에 따르면, 713 동작에서는 도 2의 270 동작에서 설명한 바와 같이, 사용자 인터페이스를 다양한 방법으로 재설정할 수 있다. 예를 들어, 전자 장치(100)는 전자 장치(100)는 특정 애플리케이션 또는 특정 사용자 인터페이스가 실행 중이지 않은 경우에 디스플레이부(110)에 표시된 사용자 인터페이스를 재설정할 수 있다. 특정 애플리케이션 실행 화면 또는 사용자 인터페이스 실행 화면을 표시 중인 경우에는 디스플레이부(110)에 표시된 사용자 인터페이스를 재설정하지 않거나, 재설정되었던 사용자 인터페이스를 다시 원래 상태로 설정할 수도 있다.According to various embodiments of the present invention, the 713 operation may reset the user interface in various manners, as described in
본 발명의 일 실시예에 따르면, 전자 장치(100)는 사용자 인터페이스를 재설정한 후에 사용자로부터 입력을 수신하면, 사용자로부터의 입력에 기반하여 사용자 인터페이스의 크기 또는 위치를 재설정할 수 있다. 예를 들어, 전자 장치(100)는 사용자의 터치 입력이 수신된 사용자 인터페이스의 크기를 확대하거나, 사용자의 터치 입력이 수신된 사용자 인터페이스의 표시 위치를 다른 곳(예를 들어, 디스플레이부(110)의 화면 중앙 등)으로 변경할 수 있다.According to one embodiment of the present invention, when the
일 실시예에 따르면, 전자 장치(100)는 사용자로부터 입력을 수신한 시점에 719 동작의 사용자 입력에 대응되는 기능을 실행할 수 있다. 이 경우, 전자 장치(100)는 사용자의 입력에 대응되는 기능을 수행하기 전에, 사용자의 입력에 대응되는 사용자 인터페이스의 크기를 확대하거나, 또는 사용자 인터페이스의 표시 위치를 디스플레이부(110)의 중앙 부분으로 변경할 수도 있다.According to one embodiment,
715 동작에서, 전자 장치(100)는 전면에 사용자가 있는지를 감지할 수 있다. 예를 들어, 전자 장치(100)는 사용자가 전방에 사용자가 계속 감지되는 경우, 705 내지 713 동작을 반복적으로 수행할 수 있다. 전자 장치(100)는 전방에 사용자가 감지되지 않는 경우 717 동작을 수행할 수 있다.In
717 동작에서, 전자 장치(100)는 사용자 인터페이스를 기 설정된 초기 상태로 재설정할 수 있다. 예를 들어, 전자 장치(100)는 재설정되었던 사용자 인터페이스의 크기 및 위치를 초기 설정 상태로 되돌릴 수 있다. 일 실시예에 따르면, 표시 중이던 사용자 인터페이스를 화면에서 제거하고, 기 설정된 초기 화면(예를 들어, 초기에 표시되도록 설정되었던 특정 사용자 인터페이스를 포함하는 화면)을 표시할 수 있다. 일 실시예에 따르면, 전자 장치(100)는 사용자 인터페이스의 표시를 중단하고, 디스플레이부(100)를 거울로 동작시킬 수 있다.In
719 동작에서, 전자 장치(100)는 사용자 입력에 따른 기능을 수행할 수 있다. 예를 들어, 전자 장치(100)는 사용자 입력에 따라 특정 사용자 인터페이스를 실행 또는 활성화시킬 수 있다. 예를 들어, 전자 장치(100)는 사용자의 터치 입력을 수신한 사용자 인터페이스를 활성화시킬 수 있다. 예를 들어, 디스플레이부(110)에 표시된 날씨 어플리케이션 항목에 사용자의 터치 입력이 수신되면, 전자 장치(100)는 상세한 날씨 정보를 표시해주는 화면을 표시할 수 있다. 다른 예로, 디스플레이부(110)에 표시된 사진 어플리케이션 항목에 사용자의 터치 입력이 수신되면, 전자 장치(100)는 카메라를 활성화하여 사용자(즉, 피사체)를 촬영하기 위한 화면을 표시할 수 있다. 본 발명의 다양한 실시예에 따르면, 전자 장치는 사용자로부터의 입력을 수신함에 따라 각각의 사용자 입력에 대응되는 다양한 기능들을 수행할 수 있다.In
일 실시예에 따르면, 사용자로부터 입력이 수신되는 경우, 전자 장치(100)는 디스플레이부(110)에 표시된 사용자 인터페이스들을 재설정하지 않고 유지할 수 있다. 예를 들어, 전자 장치(100)는 표시 중이던 사용자 인터페이스의 크기 및 위치를 재설정하지 않고, 사용자 입력에 대응되는 특정 기능을 수행할 수 있다.According to one embodiment, when an input is received from a user, the
전술한 본 개시의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재 기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비 휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 기록매체에 저장될 수 있다. It will be appreciated that the embodiments of the present disclosure described above are feasible in hardware, software or a combination of hardware and software. Such arbitrary software may be, for example, a volatile or non-volatile storage such as a storage device such as a ROM or the like, such as, for example, a RAM, a memory chip, a device or an integrated circuit Memory, or a recording medium readable by a machine (e.g., a computer) as well as being optically or magnetically recordable, such as, for example, a CD, DVD, magnetic disk or magnetic tape.
본 개시의 휴대 단말기의 사용 로그를 활용하는 방법 및 이를 이용한 장치는 프로세서 및 메모리를 포함하는 컴퓨터 또는 휴대 단말기에 의해 구현될 수 있고, 상기 메모리는 본 개시의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 기록매체의 한 예임을 알 수 있을 것이다. 따라서, 본 개시는 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계(컴퓨터 등)로 읽을 수 있는 기록매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 개시는 이와 균등한 것을 적절하게 포함한다. 또한, 상기 휴대 단말기의 사용 로그를 활용하는 방법 및 이를 이용한 장치는 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 뿐만 아니라 사용자는 사용자 휴대 단말기의 설정을 조정하여 본 개시의 실시 예에 따른 동작을 사용자 단말 내로 한정하거나 네트워크를 통한 서버와의 연동으로 확장하는 것을 선택적으로 이용할 수도 있다.A method of utilizing the usage log of the mobile terminal of the present disclosure and an apparatus using the same can be implemented by a computer or a mobile terminal including a processor and a memory and the memory includes a program including instructions embodying the embodiments of the present disclosure Or an example of a machine-readable recording medium suitable for storing programs. Accordingly, this disclosure includes a program including code for implementing the apparatus or method described in any claim herein, and a recording medium readable by a machine (such as a computer) for storing such a program. In addition, such a program may be electronically transported through any medium, such as a communication signal carried over a wired or wireless connection, and this disclosure suitably includes equivalents thereof. Also, a method of utilizing the use log of the portable terminal and an apparatus using the log may receive and store the program from a program providing apparatus connected by wire or wireless. In addition, the user may selectively utilize the settings of the user portable terminal to limit the operation according to the embodiment of the present disclosure to the user terminal or to extend the connection with the server through the network.
100: 전자 장치
110: 디스플레이부
120: 센서부
130: 제어부
140: 통신부
150: 저장부
160: 오디오부100: Electronic device
110: display unit 120: sensor unit
130: control unit 140:
150: storage unit 160: audio unit
Claims (20)
상기 디스플레이부 전면에 사용자의 접근을 감지하고, 상기 디스플레이부 전면의 피사체를 촬영하는 센서부;
사용자로부터 입력을 수신하는 입력부; 및
상기 센서부가 촬영한 이미지를 이용하여 상기 디스플레이부에 비치는 사용자의 신체 영역을 판단하고, 상기 디스플레이부에 표시된 사용자 인터페이스와 상기 사용자의 신체 영역의 적어도 일부분이 중첩되는지 판단하고, 상기 디스플레이부가 상기 사용자 인터페이스를 재설정하여 표시하도록 제어하는 제어부를 포함하는 전자 장치.
A display unit operable as a mirror and displaying a user interface;
A sensor unit for sensing a user's approach to the front face of the display unit and photographing a subject on the front face of the display unit;
An input unit for receiving input from a user; And
Wherein the control unit determines the user's body area displayed on the display unit using the image captured by the sensor unit and determines whether at least a part of the user's body area overlaps with the user interface displayed on the display unit, So as to be displayed.
상기 사용자 인터페이스와 상기 사용자의 신체 영역이 중첩되면 사용자로부터 입력이 수신되는지 판단하고, 기 설정된 시간 이상 사용자로부터 입력이 수신되지 않는 경우에 상기 사용자 인터페이스를 재설정하는 것을 특징으로 하는 전자 장치.
The apparatus of claim 1, wherein the control unit
Wherein the controller determines whether an input is received from a user when the user interface and the body region of the user are overlapped, and resets the user interface when an input is not received from the user for a predetermined time or more.
상기 사용자 인터페이스를 재설정한 후에, 사용자로부터 입력을 수신하면 상기 사용자로부터의 입력에 기반하여 상기 사용자 인터페이스의 크기 또는 위치를 재설정하는 전자 장치.
3. The apparatus of claim 2, wherein the control unit
And resets the size or position of the user interface based on an input from the user upon receiving an input from the user after resetting the user interface.
상기 사용자의 신체 영역과 상기 사용자 인터페이스가 중첩되지 않도록 상기 디스플레이부에 표시된 적어도 하나의 사용자 인터페이스의 크기 또는 위치를 재설정하는 전자 장치.
The apparatus of claim 1, wherein the control unit
And resets the size or position of at least one user interface displayed on the display unit such that the user's body area and the user interface do not overlap.
상기 디스플레이부에 비치는 사용자의 신체 중에서 상기 사용자의 얼굴 영역인 것을 특징으로 하는 전자 장치.
2. The method of claim 1, wherein the user '
Wherein the face of the user is a face region of the user in the body of the user displayed on the display unit.
상기 디스플레이부가 거울로 동작하는 중에, 사용자가 상기 디스플레이부로부터 기 설정된 거리 이내에 접근한 것을 감지하면, 상기 디스플레이부가 상기 사용자 인터페이스를 표시하도록 제어하는 전자 장치.
The apparatus of claim 1, wherein the control unit
Wherein the display unit controls the display unit to display the user interface when the user senses approaching within a predetermined distance from the display unit while the display unit is operating as a mirror.
상기 센서부가 촬영한 이미지에서 사용자의 얼굴을 인식하고, 상기 촬영한 이미지를 이용하여 사용자의 얼굴이 상기 디스플레이부에 비치는 영역을 판단하는 것을 특징으로 하는 전자 장치.
The apparatus of claim 1, wherein the control unit
Wherein the sensor unit recognizes the face of the user in the image photographed by the sensor unit and determines the area of the user's face reflected on the display unit using the photographed image.
상기 디스플레이부에 비치는 상기 사용자의 신체 영역이 일정 영역 이상인 경우에 상기 디스플레이부에 표시된 사용자 인터페이스를 재설정하는 전자 장치.
The apparatus of claim 1, wherein the control unit
And resets the user interface displayed on the display unit when the body area of the user displayed on the display unit is equal to or larger than a predetermined area.
특정 애플리케이션 또는 특정 사용자 인터페이스가 실행 중이지 않은 경우에 상기 디스플레이부에 표시된 사용자 인터페이스를 재설정하는 전자 장치.
The apparatus of claim 1, wherein the control unit
And resets the user interface displayed on the display unit when a specific application or a specific user interface is not being executed.
상기 디스플레이부에 전면에 사용자가 감지되지 않으면, 상기 사용자 인터페이스의 크기 및 위치를 기 설정된 초기상태로 재설정하는 전자 장치.
The apparatus of claim 1, wherein the control unit
And resets the size and position of the user interface to a predetermined initial state if the user does not detect the user on the front surface of the display unit.
거울로 동작 중인 상기 디스플레이부에 적어도 하나의 사용자 인터페이스를 표시하는 동작;
상기 디스플레이부 전면의 피사체를 촬영하여 이미지를 생성하는 동작;
상기 생성한 이미지를 이용하여 상기 디스플레이부에 비치는 사용자의 신체 영역을 판단하는 동작;
상기 디스플레이부에 표시된 상기 적어도 하나의 사용자 인터페이스와 상기 사용자의 신체 영역의 적어도 일부분이 중첩되는지 판단하는 동작; 및
상기 사용자 인터페이스를 상기 사용자의 신체 영역과 중첩되지 않도록 재설정하는 동작을 포함하는 사용자 인터페이스 제공 방법.
A method of providing a user interface of an electronic device including a display unit operable as a mirror under control of a control unit and capable of displaying a user interface,
Displaying at least one user interface on the display unit operating as a mirror;
Capturing a subject on the front surface of the display unit to generate an image;
Determining a user's body area displayed on the display unit using the generated image;
Determining whether at least a portion of the body region of the user overlaps with the at least one user interface displayed on the display unit; And
And resetting the user interface so that it does not overlap with the body area of the user.
상기 적어도 하나의 사용자 인터페이스와 상기 사용자의 신체 영역이 중첩되는 경우, 기 설정된 시간 내에 사용자로부터 입력이 수신되는지 판단하는 동작; 및
기 설정된 시간 내에 사용자로부터 입력이 수신되지 않는 경우에 상기 사용자 인터페이스를 재설정하는 동작을 포함하는 사용자 인터페이스 제공 방법.
12. The method of claim 11, wherein the resetting operation
Determining if an input is received from a user within a predetermined time when the at least one user interface and the body region of the user overlap; And
And resetting the user interface when an input from the user is not received within a predetermined time.
상기 사용자 인터페이스를 재설정한 후에 사용자로부터 입력을 수신하는 경우, 상기 사용자로부터의 입력에 기반하여 상기 적어도 하나의 사용자 인터페이스의 크기 또는 위치를 재설정하는 동작을 더 포함하는 사용자 인터페이스 제공 방법.
13. The method of claim 12,
Further comprising resetting the size or position of the at least one user interface based on an input from the user when receiving an input from the user after resetting the user interface.
상기 디스플레이부에 표시된 적어도 하나의 사용자 인터페이스의 크기를 변경하거나, 또는 상기 적어도 하나의 사용자 인터페이스의 위치를 상기 사용자의 신체 영역 밖으로 이동시키는 것을 특징으로 하는 사용자 인터페이스 제공 방법.
12. The method of claim 11, wherein the resetting operation
And changing the size of at least one user interface displayed on the display unit or moving the position of the at least one user interface out of the user's body area.
상기 디스플레이부에 비치는 사용자의 신체 중에서 상기 사용자의 얼굴 영역인 것을 특징으로 하는 사용자 인터페이스 제공 방법.
12. The method of claim 11, wherein the user '
Wherein the face of the user is a face region of the user in the body of the user displayed on the display unit.
상기 디스플레이부 전면에 사용자의 접근을 감지하는 동작; 및
사용자가 상기 디스플레이부로부터 기 설정된 거리 이내에 접근하면 상기 사용자 인터페이스를 표시하는 동작을 포함하는 사용자 인터페이스 제공 방법.
12. The method of claim 11, wherein the act of displaying the user interface
Detecting an approach of a user to the front of the display unit; And
And displaying the user interface when the user approaches within a predetermined distance from the display unit.
상기 이미지에서 사용자의 얼굴을 인식하는 동작; 및
상기 이미지를 이용하여 상기 디스플레이부에 사용자의 얼굴이 비치는 영역을 판단하는 동작을 포함하는 사용자 인터페이스 제공 방법.
12. The method of claim 11, wherein the act of determining the user '
Recognizing the user's face in the image; And
And determining an area where a user's face is reflected on the display unit using the image.
상기 디스플레이부에 전면에 사용자가 감지되지 않으면, 상기 사용자 인터페이스의 크기 및 위치를 기 설정된 초기상태로 재설정하는 단계를 더 포함하는 사용자 인터페이스 제공 방법.
12. The method of claim 11,
And resetting the size and position of the user interface to a predetermined initial state if the user does not detect the user on the front of the display unit.
상기 사용자의 신체 영역이 상기 디스플레이부의 일정 영역 이상이거나, 또는 특정 애플리케이션 또는 특정 사용자 인터페이스가 실행 중이지 않은 경우에 상기 디스플레이부에 표시된 사용자 인터페이스를 재설정하는 것을 특징으로 하는 사용자 인터페이스 제공 방법.
12. The method of claim 11,
And resets the user interface displayed on the display unit when the body area of the user is not less than a predetermined area of the display unit, or when a specific application or a specific user interface is not being executed.
상기 사용자 인터페이스 제공 방법은
거울로 동작 중인 상기 디스플레이부에 상기 사용자 인터페이스를 표시하는 동작;
상기 디스플레이부에 비치는 사용자의 신체 영역을 감지하는 동작;
상기 디스플레이부에 표시된 상기 사용자 인터페이스와 상기 사용자의 신체 영역이 겹치는지 판단하는 동작; 및
상기 사용자 인터페이스와 상기 사용자 신체 영역이 겹치는 경우, 상기 사용자 인터페이스를 상기 사용자의 신체 영역과 겹치지 않도록 재설정하는 동작을 포함하는 컴퓨터로 읽을 수 있는 기록 매체.
A computer readable recording medium having recorded thereon one or more programs including instructions for causing a computer to perform a method of providing a user interface, the electronic device including a display unit operable under the control of a control unit and capable of displaying a user interface, In the medium,
The user interface providing method
Displaying the user interface on the display unit operating as a mirror;
Detecting an area of a user's body reflected on the display unit;
Determining whether the user interface displayed on the display unit overlaps the user's body area; And
And resetting the user interface so that the user interface does not overlap with the body area of the user when the user interface overlaps the user body area.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150018428A KR102375699B1 (en) | 2015-02-06 | 2015-02-06 | Electronic device and method for providing user interface thereof |
US15/016,732 US10297037B2 (en) | 2015-02-06 | 2016-02-05 | Electronic device and method of providing user interface therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150018428A KR102375699B1 (en) | 2015-02-06 | 2015-02-06 | Electronic device and method for providing user interface thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160096853A true KR20160096853A (en) | 2016-08-17 |
KR102375699B1 KR102375699B1 (en) | 2022-03-17 |
Family
ID=56566833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150018428A KR102375699B1 (en) | 2015-02-06 | 2015-02-06 | Electronic device and method for providing user interface thereof |
Country Status (2)
Country | Link |
---|---|
US (1) | US10297037B2 (en) |
KR (1) | KR102375699B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018038466A1 (en) * | 2016-08-26 | 2018-03-01 | Samsung Electronics Co., Ltd. | Display apparatus and control method thereof |
KR20180108048A (en) * | 2017-03-23 | 2018-10-04 | 박귀현 | Apparatus and method that automatically interacts with the subject of smart mirror, and smart mirror using the same |
US12039946B2 (en) | 2020-09-22 | 2024-07-16 | Samsung Electronics Co., Ltd. | Display apparatus and method for controlling same |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11083344B2 (en) | 2012-10-11 | 2021-08-10 | Roman Tsibulevskiy | Partition technologies |
JP6809267B2 (en) * | 2017-02-10 | 2021-01-06 | 富士ゼロックス株式会社 | Information processing equipment, information processing systems and programs |
CN109101084A (en) * | 2018-09-28 | 2018-12-28 | 深圳阜时科技有限公司 | A kind of equipment |
WO2021054809A1 (en) | 2019-09-21 | 2021-03-25 | Samsung Electronics Co., Ltd. | Method and system for generating dynamic user interface layout for an electronic device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060116940A (en) * | 2005-05-12 | 2006-11-16 | 한국과학기술원 | User interface system using half-mirror device and driving methed thereof |
JP2013246184A (en) * | 2012-05-23 | 2013-12-09 | Sharp Corp | Display device |
US20140085178A1 (en) * | 2012-09-24 | 2014-03-27 | 3M Innovative Properties Company | Method and apparatus for controlling information display areas in a mirror display |
US20140164963A1 (en) * | 2012-12-11 | 2014-06-12 | Sap Ag | User configurable subdivision of user interface elements and full-screen access to subdivided elements |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6473102B1 (en) * | 1998-05-11 | 2002-10-29 | Apple Computer, Inc. | Method and system for automatically resizing and repositioning windows in response to changes in display |
JP3847753B2 (en) * | 2004-01-30 | 2006-11-22 | 株式会社ソニー・コンピュータエンタテインメント | Image processing apparatus, image processing method, recording medium, computer program, semiconductor device |
US8976160B2 (en) * | 2005-03-01 | 2015-03-10 | Eyesmatch Ltd | User interface and authentication for a virtual mirror |
US20120198367A1 (en) | 2011-01-31 | 2012-08-02 | Sap Ag | User interface style guide compliance forecasting |
US20130145272A1 (en) * | 2011-11-18 | 2013-06-06 | The New York Times Company | System and method for providing an interactive data-bearing mirror interface |
JP6027764B2 (en) * | 2012-04-25 | 2016-11-16 | キヤノン株式会社 | Mirror system and control method thereof |
US9325943B2 (en) * | 2013-02-20 | 2016-04-26 | Microsoft Technology Licensing, Llc | Providing a tele-immersive experience using a mirror metaphor |
US20140240273A1 (en) * | 2013-02-27 | 2014-08-28 | Sony Corporation | Apparatus and method for interacting with a user |
KR20150066883A (en) * | 2013-12-09 | 2015-06-17 | 삼성전자주식회사 | Image processing method and device |
US9805131B2 (en) * | 2014-03-13 | 2017-10-31 | Ebay Inc. | Wear time as metric of buying intent |
KR102209745B1 (en) * | 2014-03-18 | 2021-01-29 | 광운대학교 산학협력단 | An information display device of a mirror display for advertisement and shopping by recognizing the reflected images on the mirror and method thereof |
US9182889B1 (en) * | 2014-06-24 | 2015-11-10 | Google Inc. | Preventing unintentional user activation of user interface elements |
WO2016048102A1 (en) * | 2014-09-26 | 2016-03-31 | Samsung Electronics Co., Ltd. | Image display method performed by device including switchable mirror and the device |
-
2015
- 2015-02-06 KR KR1020150018428A patent/KR102375699B1/en active IP Right Grant
-
2016
- 2016-02-05 US US15/016,732 patent/US10297037B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060116940A (en) * | 2005-05-12 | 2006-11-16 | 한국과학기술원 | User interface system using half-mirror device and driving methed thereof |
JP2013246184A (en) * | 2012-05-23 | 2013-12-09 | Sharp Corp | Display device |
US20140085178A1 (en) * | 2012-09-24 | 2014-03-27 | 3M Innovative Properties Company | Method and apparatus for controlling information display areas in a mirror display |
US20140164963A1 (en) * | 2012-12-11 | 2014-06-12 | Sap Ag | User configurable subdivision of user interface elements and full-screen access to subdivided elements |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018038466A1 (en) * | 2016-08-26 | 2018-03-01 | Samsung Electronics Co., Ltd. | Display apparatus and control method thereof |
KR20180108048A (en) * | 2017-03-23 | 2018-10-04 | 박귀현 | Apparatus and method that automatically interacts with the subject of smart mirror, and smart mirror using the same |
US12039946B2 (en) | 2020-09-22 | 2024-07-16 | Samsung Electronics Co., Ltd. | Display apparatus and method for controlling same |
Also Published As
Publication number | Publication date |
---|---|
US10297037B2 (en) | 2019-05-21 |
KR102375699B1 (en) | 2022-03-17 |
US20160231918A1 (en) | 2016-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102375699B1 (en) | Electronic device and method for providing user interface thereof | |
US10148886B2 (en) | Method for photographing control and electronic device thereof | |
JP7005646B2 (en) | Shooting method and terminal | |
US10353574B2 (en) | Photographic apparatus, control method thereof, and non-transitory computer-readable recording medium | |
CN107810629B (en) | Image processing apparatus, image processing method, and program | |
EP2975838B1 (en) | Image shooting parameter adjustment method and device | |
US9325903B2 (en) | Method and apparatus for processing image | |
US10375312B2 (en) | Imaging device and video generation method by imaging device | |
US9900500B2 (en) | Method and apparatus for auto-focusing of an photographing device | |
US9106821B1 (en) | Cues for capturing images | |
EP2887648B1 (en) | Method of performing previewing and electronic device for implementing the same | |
KR102661614B1 (en) | Screen providing method and electronic device supporting the same | |
JP6392900B2 (en) | Pressure detection method, apparatus, program, and recording medium | |
US9535604B2 (en) | Display device, method for controlling display, and recording medium | |
US20190012129A1 (en) | Display apparatus and method for controlling display apparatus | |
US10652442B2 (en) | Image capturing apparatus with operation members provided on different sides, control method of the same, and storage medium | |
US9350918B1 (en) | Gesture control for managing an image view display | |
KR20150014226A (en) | Electronic Device And Method For Taking Images Of The Same | |
EP3701709B1 (en) | Electronic apparatus and control method thereof | |
US9811160B2 (en) | Mobile terminal and method for controlling the same | |
US20220326899A1 (en) | Electronic apparatus and control method thereof and storage medium | |
JP2016187105A (en) | Electronic apparatus, method of controlling photographing with electronic apparatus, and program for controlling photographing with electronic apparatus | |
KR102124806B1 (en) | Electronic Device And Method for Connecting Audio Information to Image Information Of The Same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |