KR20130006154A - Method for screen orientation determination and mobile terminal using this method - Google Patents

Method for screen orientation determination and mobile terminal using this method Download PDF

Info

Publication number
KR20130006154A
KR20130006154A KR1020110068030A KR20110068030A KR20130006154A KR 20130006154 A KR20130006154 A KR 20130006154A KR 1020110068030 A KR1020110068030 A KR 1020110068030A KR 20110068030 A KR20110068030 A KR 20110068030A KR 20130006154 A KR20130006154 A KR 20130006154A
Authority
KR
South Korea
Prior art keywords
face
screen
orientation
mobile terminal
module
Prior art date
Application number
KR1020110068030A
Other languages
Korean (ko)
Inventor
임효준
이상석
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020110068030A priority Critical patent/KR20130006154A/en
Publication of KR20130006154A publication Critical patent/KR20130006154A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/42Graphical user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: Screen orientation determination method and mobile terminal using this are provided to recognize face orientation based on image recognition, decide screen orientation to match with face orientation, and change screen orientation automatically, thereby decide the screen orientation by minimizing user inconvenience. The screen direction is decided while the inconvenience of the user is minimized. CONSTITUTION: Sensor(140) senses inclination of body. Control unit(180) recognizes face orientation through camera(121), and decides screen orientation according to inclination of the body and orientation of the face. Output unit(150) indicates screen by the determined orientation. The sensor senses the orientation using gravity sensor, gyro sensor or any combinations. The control unit recognizes face or position of specific part of the face. [Reference numerals] (110) Wireless communication unit; (111) Broadcasting reception module; (112) Mobile communication module; (113) Wireless internet module; (114) Local area communication module; (115) Location information module; (120) A/V input unit; (121) Camera; (122) Microphone; (130) User input unit; (140) Sensor; (141) Proximity sensor; (150) Output unit; (151) Display unit; (152) Sound output module; (153) Alarm unit; (154) Haptic module; (160) Memory; (170) Interface module; (180) Control unit; (181) Multimedia module; (190) Power supply unit

Description

화면 방향 결정 방법 및 이를 이용하는 이동 단말기{METHOD FOR SCREEN ORIENTATION DETERMINATION AND MOBILE TERMINAL USING THIS METHOD}Method for determining screen orientation and mobile terminal using same {METHOD FOR SCREEN ORIENTATION DETERMINATION AND MOBILE TERMINAL USING THIS METHOD}

본 명세서는 이동 단말기에 관한 것으로, 보다 상세하게는 화면 방향 결정 방법 및 이를 이용하는 이동 단말기에 관한 것이다.The present disclosure relates to a mobile terminal, and more particularly, to a screen direction determination method and a mobile terminal using the same.

단말기(terminal)는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다. 다시 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다.Terminals may be divided into mobile / portable terminals and stationary terminals according to their mobility. The mobile terminal may be further classified into a handheld terminal and a vehicle mount terminal according to whether a user can directly carry it.

이와 같은 단말기는 기능이 다양화됨에 따라, 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(multimedia player) 형태로 구현되고 있다. 이러한 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.As the functions of such terminals are diversified, they are implemented in the form of a multimedia player having complex functions such as photographing and photographing of movies, reproduction of music and video files, games, and broadcasting reception . In order to support and enhance the functionality of such terminals, it may be considered to improve the structural and / or software parts of the terminal.

최근 이동 단말기 기술이 발전해 가면서, 사용자의 편의를 고려한 유저 인터페이스(User Interface: UI)를 채용한 이동 단말기(또는 스마트 폰)가 출시되고 있다. 특히, 디스플레이 화면 표시 방향을 필요에 따라 세로 방향(portrait)에서 가로 방향(landscape) 방향으로 결정함으로써 장문의 메시지를 용이하게 확인 할 수 있도록 이동 단말기의 화면 결정에 대한 기술이 개발 되어 활용되고 있다.Recently, with the development of mobile terminal technology, a mobile terminal (or smart phone) employing a user interface (UI) in consideration of user convenience has been released. In particular, a technology for determining a screen of a mobile terminal has been developed and utilized to easily check a long message by determining a display screen display direction from a portrait direction to a landscape direction as needed.

그런데, 기존 이동 단말의 경우 사용 중 이동 단말의 화면 방향(Screen Orientation)을 변경 할 경우(예를 들어 누워서 영화를 보는 경우) 화면이 사용자의 의도와 맞지 않는 경우가 존재하여 사용자가 이를 변경하기 위해서 다시 화면을 몇 번 돌려서 맞춰야 하는 불편함이 존재하여 왔다. 따라서 이동 단말의 화면 방향 결정을 사용자에게 편리하게 제공할 수 있는 효과적인 방법이 필요하다.However, in the case of an existing mobile terminal, when the screen orientation of the mobile terminal is changed during use (for example, when watching a movie while lying down), the screen does not match the intention of the user. There has been an inconvenience of having to turn the screen a few times again. Therefore, there is a need for an effective method that can conveniently provide the user with the screen orientation of the mobile terminal.

따라서, 본 명세서의 목적은 이동 단말기가 사용자의 불편함을 최소화하면서 화면 방향 결정을 수행하는 장치 및 그 방법을 제공함에 있다.Accordingly, an object of the present specification is to provide an apparatus and method for determining a screen orientation while minimizing user inconvenience.

본 명세서에 개시된 일 실시예에 따른 이동 단말기의 화면 방향 변경 방법은 단말이 바디의 기울기를 감지하는 단계, 카메라를 통해서 안면의 방향을 인식하는 단계, 상기 감지된 바디의 기울기와 안면의 방향에 따라서 화면의 방향(screen orientation)을 결정하는 단계 및 상기 결정된 방향으로 화면을 디스플레이하는 단계를 포함하는 것을 특징으로 할 수 있다.According to an embodiment of the present disclosure, a method of changing a screen orientation of a mobile terminal may include: detecting, by a terminal, an inclination of a body, recognizing a direction of a face through a camera, according to the detected inclination of the body and a direction of a face; The method may include determining a screen orientation of the screen and displaying the screen in the determined direction.

상기 단말기 바디의 기울기를 감지하는 단계는 지면과 수평 방향이 되는 바디를 기준으로 기울기 정도를 가속도 센서, 자이로 센서, 지자기 센서 또는 그 어떠한 조합을 이용해서 감지하는 것을 특징으로 할 수 있다.       The detecting of the inclination of the terminal body may include detecting an inclination degree based on a body that is in a horizontal direction with the ground using an acceleration sensor, a gyro sensor, a geomagnetic sensor, or any combination thereof.

상기 안면의 방향을 인식하는 단계는 얼굴 또는 얼굴의 특정 부분의 방향을 인식하는 것을 특징으로 할 수 있다. 상기 얼굴의 방향을 인식하는 것은 얼굴의 이미지에서 얼굴의 단 방향과 장 방향을 파악하여, 상기 얼굴의 단 방향의 특정 위치와 수평이 되는 방향을 이용하는 것을 특징으로 할 수 있다. 상기 얼굴의 특정 부분의 방향을 인식하는 것은 얼굴의 이미지에서 두 눈의 위치를 파악하여, 파악된 두 눈의 위치와 수평인 방향을 이용하는 특징으로 할 수 있다.Recognizing the direction of the face may be characterized by recognizing the direction of the face or a specific portion of the face. Recognizing the direction of the face may be characterized in that the direction of the face is identified in the image of the face and the direction is parallel to the specific position of the short direction of the face. Recognizing the direction of the specific part of the face may be characterized by using the direction of the two eyes in the image of the face, the direction and the horizontal direction of the identified two eyes.

상기 안면의 방향을 인식하는 단계는 안면의 영상을 카메라가 소정의 시간 간격으로 인식하는 것을 특징으로 할 수 있다. 상기 안면의 방향을 인식하는 단계는 모드에 의해서 선택적으로 수행 되는 것을 특징으로 할 수 있다.Recognizing the direction of the face may be characterized in that the camera recognizes the image of the face at a predetermined time interval. Recognizing the direction of the face may be characterized in that selectively performed by the mode.

상기 화면의 방향을 결정하는 단계는 설정된 화면의 가로 보기 상태 또는 세로보기 상태에서 생성된 화면 방향과 사용자 얼굴의 이미지로부터 인식된 얼굴의 방향 또는 얼굴의 특정 부분의 방향을 서로 비교하는 것을 특징으로 할 수 있다.The determining of the direction of the screen may include comparing the screen direction generated in the horizontal or vertical view state of the set screen with the direction of the face recognized from the image of the user face or the direction of a specific part of the face. Can be.

상기 화면의 방향을 결정하는 단계는 상기 비교 결과에 따라 화면 방향과 얼굴 또는 얼굴의 특정 부분의 방향 사이의 기울기가 일정 범위 내에 해당하지 않으면, 설정된 가로보기 상태를 세로보기 상태로 변경하거나, 설정된 세로보기 상태를 가로보기 상태로 변경하는 것을 특징으로 할 수 있다.The determining of the direction of the screen may include changing the set horizontal view state to the vertical view state if the inclination between the screen direction and the direction of the face or a specific part of the face does not fall within a predetermined range according to the comparison result. It may be characterized by changing the view state to the landscape view state.

상기 화면의 방향을 결정하는 단계는 상기 비교 결과에 따라 화면 방향과 얼굴 또는 얼굴의 특정 부분의 방향 사이의 서로에 대한 기울기가 일정 범위 내에 해당하면, 설정된 가로 보기 상태 또는 세로보기 상태를 유지하는 것을 특징으로 할 수 있다.The determining of the direction of the screen may include maintaining the set horizontal or vertical view state when the inclination with respect to each other between the screen direction and the direction of the face or a specific part of the face falls within a predetermined range according to the comparison result. It can be characterized.

상기한 바와 같이 본 명세서에 개시된 일 실시예에 따른 화면 방향 결정 방법 및 이를 이용하는 이동 단말기에 따르면 이동 단말기가 영상 인식을 이용해서 사용자 안면의 방향을 인식하고, 인식된 안면 방향에 일치되도록 화면 방향을 결정 할 지를 파악하여 필요하다면 화면 방향을 자동으로 변경시켜 줌으로써 사용자의 불편함을 최소화하면서 화면 방향 결정을 수행할 수 있도록 해주는 효과가 있다.As described above, according to the screen orientation determining method and the mobile terminal using the same according to an embodiment disclosed herein, the mobile terminal recognizes the direction of the user's face using image recognition, and adjusts the screen orientation to match the recognized face direction. By determining whether to make a decision and automatically changing the screen orientation if necessary, it is possible to perform screen orientation determination while minimizing user inconvenience.

도 1은 본 명세서에 개시된 일 실시예에 따른 이동 단말기 및 이동 단말기의 영상 인식을 이용한 화면 방향 결정 방법을 수행하는 구성을 나타내는 블록도이다.
도 2는 본 명세서에 개시된 일 실시예에 따른 이동 단말기의 영상 인식을 이용한 안면의 방향에 따라 화면 방향을 결정하는 방법을 나타내는 순서도이다.
도 3은 본 명세서에 개시된 일 실시예에 따른 영상 인식을 통한 얼굴의 방향에 따라 화면 방향을 결정하는 방법을 나타낸 예시도이다.
도 4는 본 명세서에 개시된 일 실시예에 따른 영상 인식을 통한 얼굴의 특정 부분의 방향에 따라 화면 방향을 결정하는 방법을 나타낸 예시도이다.
도 5는 본 명세서에 개시된 일 실시예에 따른 이동 단말기가 모드 선택을 통해서 영상 인식을 이용한 화면 방향 결정하는 방법을 나타낸 순서도이다.
1 is a block diagram illustrating a configuration of a method for determining a screen direction using image recognition of a mobile terminal and a mobile terminal according to an exemplary embodiment disclosed herein.
2 is a flowchart illustrating a method of determining a screen direction according to a direction of a face using image recognition of a mobile terminal according to one embodiment disclosed herein.
3 is an exemplary diagram illustrating a method of determining a screen direction according to a direction of a face through image recognition according to an exemplary embodiment disclosed herein.
4 is an exemplary diagram illustrating a method of determining a screen direction according to a direction of a specific part of a face through image recognition according to an exemplary embodiment disclosed herein.
FIG. 5 is a flowchart illustrating a method of determining a screen orientation using image recognition through mode selection by a mobile terminal according to an exemplary embodiment disclosed herein.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments disclosed herein will be described in detail with reference to the accompanying drawings, and the same or similar components will be given the same reference numerals regardless of the reference numerals, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. In addition, it should be noted that the attached drawings are only for easy understanding of the embodiments disclosed in the present specification, and should not be construed as limiting the technical idea disclosed in the present specification by the attached drawings.

이동 단말기의 전체 구성Overall configuration of the mobile terminal

본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.The mobile terminal described herein may include a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant, a portable multimedia player (PMP), navigation, and the like. However, it will be readily apparent to those skilled in the art that the configuration according to the embodiments described herein may also be applied to fixed terminals such as digital TVs, desktop computers, etc., except when applicable only to mobile terminals.

도 1은 본 명세서에 개시된 일 실시예에 따른 이동 단말기 및 이동 단말기의 영상 인식을 이용한 화면 방향 결정 방법을 수행하는 구성을 나타내는 블록도이다.1 is a block diagram illustrating a configuration of a method for determining a screen direction using image recognition of a mobile terminal and a mobile terminal according to an exemplary embodiment disclosed herein.

상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 센싱부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.The mobile terminal 100 includes a wireless communication unit 110, an audio / video input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory 160, A controller 170, a controller 180, a power supply 190, and the like. The components shown in FIG. 1 are not essential, and a mobile terminal having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 등을 포함할 수 있다.The wireless communication unit 110 may include one or more modules for enabling wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and the network in which the mobile terminal 100 is located. For example, the wireless communication unit 110 may include a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115 .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다. 방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast receiving module 111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel. The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider. The broadcast related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112. The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.  The mobile communication module 112 transmits and receives radio signals to at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module 113 is a module for wireless Internet access, and may be built in or externally attached to the mobile terminal 100. Wireless Internet technologies may include Wireless LAN (Wi-Fi), Wireless Broadband (Wibro), World Interoperability for Microwave Access (Wimax), High Speed Downlink Packet Access (HSDPA), and the like.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short range communication module 114 refers to a module for short range communication. Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like can be used as a short range communication technology.

위치정보 모듈(115)은 이동 단말기의 위치를 수신하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다.The location information module 115 is a module for receiving a location of a mobile terminal, and a representative example thereof is a GPS (Global Position System) module.

도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, an A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the photographing mode. The processed image frame can be displayed on the display unit 151. [

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부로 전송될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to the outside through the wireless communication unit 110. [ Two or more cameras 121 may be provided depending on the use environment.

마이크(122)는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal by a microphone in a call mode, a recording mode, a voice recognition mode, etc., and processes the external sound signal into electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 when the voice data is in the call mode, and output. Various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in receiving an external sound signal.

사용자 입력부(130)는 사용자가 단말기의 동작 제어를 위한 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad) 돔 스위치(dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.The user input unit 130 generates input data for a user to control the operation of the terminal. The user input unit 130 may include a key pad dome switch, a touch pad (static pressure / capacitance), a jog wheel, a jog switch, and the like.

센싱부(140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 예를 들어 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 센싱할 수 있다. 또한, 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(140)는 근접 센서(141)를 포함할 수 있다.The sensing unit 140 senses the current state of the mobile terminal 100 such as the open / close state of the mobile terminal 100, the position of the mobile terminal 100, the presence or absence of user contact, the orientation of the mobile terminal, And generates a sensing signal for controlling the operation of the mobile terminal 100. For example, when the mobile terminal 100 is in the form of a slide phone, it may sense whether the slide phone is opened or closed. In addition, whether the power supply unit 190 is supplied with power, whether the interface unit 170 is coupled to the external device may be sensed. Meanwhile, the sensing unit 140 may include a proximity sensor 141.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(152), 알람부(153) 및 햅틱 모듈(154) 등이 포함될 수 있다.The output unit 150 may include a display unit 151, an audio output module 152, an alarm unit 153, and a haptic module 154, for example, for generating output related to visual, auditory, have.

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.The display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, when the mobile terminal is in the call mode, a UI (User Interface) or a GUI (Graphic User Interface) associated with a call is displayed. When the mobile terminal 100 is in the video communication mode or the photographing mode, the photographed and / or received video or UI and GUI are displayed.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display (flexible). display, a 3D display, or an e-ink display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display unit 151 may also be of a light transmission type. With this structure, the user can see an object located behind the terminal body through the area occupied by the display unit 151 of the terminal body.

이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)이 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.There may be two or more display units 151 according to the embodiment of the mobile terminal 100. For example, in the mobile terminal 100, a plurality of display portions may be spaced apart from one another, or may be disposed integrally with one another, and may be disposed on different surfaces, respectively.

디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.(Hereinafter, referred to as a 'touch screen') in which a display unit 151 and a sensor for sensing a touch operation (hereinafter, referred to as 'touch sensor') form a mutual layer structure, It can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다.The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display unit 151 or a capacitance generated in a specific portion of the display unit 151 into an electrical input signal. The touch sensor can be configured to detect not only the position and area to be touched but also the pressure at the time of touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the controller 180. As a result, the controller 180 can know which area of the display unit 151 is touched.

도 1을 참조하면, 상기 터치스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치스크린의 근처에 근접 센서(141)가 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.Referring to FIG. 1, a proximity sensor 141 may be disposed in an inner region of the mobile terminal or in the vicinity of the touch screen, which is surrounded by the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or a nearby object without mechanical contact using the force of an electromagnetic field or infrared rays. The proximity sensor has a longer life span than the contact sensor and its utilization is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. And to detect the proximity of the pointer by the change of the electric field along the proximity of the pointer when the touch screen is electrostatic. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

음향 출력 모듈(152)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(152)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 152 may output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. The sound output module 152 also outputs sound signals related to functions (e.g., call signal reception sound, message reception sound, etc.) performed in the mobile terminal 100. [ The audio output module 152 may include a receiver, a speaker, a buzzer, and the like.

알람부(153)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(153)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동으로 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음성 출력 모듈(152)을 통해서도 출력될 수 있어서, 그들(151,152)은 알람부(153)의 일부로 분류될 수도 있다.The alarm unit 153 outputs a signal for notifying the occurrence of an event of the mobile terminal 100. Examples of events that occur in the mobile terminal include call signal reception, message reception, key signal input, touch input, and the like. The alarm unit 153 may output a signal for notifying the occurrence of an event in a form other than the video signal or the audio signal, for example, vibration. The video signal or the audio signal may be output through the display unit 151 or the audio output module 152 so that they may be classified as a part of the alarm unit 153.

햅틱 모듈(haptic module)(154)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(154)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 있다. 햅택 모듈(154)이 발생하는 진동의 세기와 패턴 등은 제어가능하다. 예를 들어, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The haptic module 154 generates various tactile effects that the user can feel. Vibration is a representative example of the haptic effect generated by the haptic module 154. The intensity and pattern of vibration generated by the haptic module 154 can be controlled. For example, different vibrations may be synthesized and output or sequentially output.

햅틱 모듈(154)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.In addition to vibration, the haptic module 154 may be configured to provide a pin array that vertically moves with respect to the contact skin surface, a jetting force or suction force of air through an injection or inlet port, grazing to the skin surface, contact of an electrode, electrostatic force, and the like. Various tactile effects can be generated, such as effects by the endothermic and the reproduction of a sense of cold using the elements capable of endotherm or heat generation.

햅틱 모듈(154)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(154)은 이동 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 154 can be implemented not only to transmit the tactile effect through the direct contact but also to allow the user to feel the tactile effect through the muscular sensation of the finger or arm. At least two haptic modules 154 may be provided according to the configuration of the mobile terminal 100.

메모리(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(160)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다. The memory 160 may store a program for the operation of the controller 180 and temporarily store input / output data (e.g., a phone book, a message, a still image, a moving picture, etc.). The memory 160 may store data on vibration and sound of various patterns outputted when a touch is input on the touch screen.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), RAM random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), programmable read-only memory (PROM), magnetic memory, magnetic It may include a storage medium of at least one type of disk, optical disk. The mobile terminal 100 may operate in association with a web storage that performs a storage function of the memory 160 on the Internet.

인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다.The interface unit 170 serves as a path for communication with all external devices connected to the mobile terminal 100. The interface unit 170 receives data from an external device, receives power, transfers the power to each component inside the mobile terminal 100, or transmits data inside the mobile terminal 100 to an external device. For example, a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / O port, A video input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(user identify module; UIM), 가입자 인증 모듈(subscriber identify module; SIM), 범용 사용자 인증 모듈(universal subscriber identity module; USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 단말기(100)와 연결될 수 있다.The identification module is a chip for storing various information for authenticating the usage right of the mobile terminal 100 and includes a user identification module (UIM), a subscriber identity module (SIM), a general user authentication module a universal subscriber identity module (USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Accordingly, the identification device can be connected to the terminal 100 through the port.

상기 인터페이스부는 이동단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동단말기로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동단말기가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.The interface unit may be a passage through which power from the cradle is supplied to the mobile terminal 100 when the mobile terminal 100 is connected to an external cradle, or various command signals input from the cradle by a user may be transferred. It may be a passage that is delivered to the terminal. The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile terminal is correctly mounted on the cradle.

제어부(controller, 180)는 통상적으로 이동 단말기의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The controller 180 typically controls the overall operation of the mobile terminal. For example, voice communication, data communication, video communication, and the like. The control unit 180 may include a multimedia module 181 for multimedia playback. The multimedia module 181 may be implemented in the control unit 180 or may be implemented separately from the control unit 180. [

상기 제어부(180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다.The controller 180 may perform a pattern recognition process for recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power necessary for operation of the respective components.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays , Microprocessors, microprocessors, microprocessors, and other electronic units for carrying out other functions. In some cases, the embodiments described herein may be implemented by the controller 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.According to the software implementation, embodiments such as the procedures and functions described herein may be implemented as separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software code is stored in the memory 160 and can be executed by the control unit 180. [

이동 단말기에 대한 사용자 입력의 처리 방법How to handle user input to a mobile terminal

사용자 입력부(130)는 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 것으로서, 복수의 조작 유닛들을 포함할 수 있다. 조작 유닛들은 조작부(manipulating portion)로도 통칭 될 수 있으며, 사용자가 촉각적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다.The user input unit 130 is operated to receive a command for controlling the operation of the mobile terminal 100 and may include a plurality of operation units. The manipulation units may also be referred to collectively as a manipulating portion, and may be employed in any manner as long as the user is tactile in the manner of tactile feeling.

디스플레이부(151)에는 다양한 종류의 시각 정보들이 표시될 수 있다. 이들 정보들은 문자, 숫자, 기호, 그래픽, 또는 아이콘 등의 형태로 표시될 수 있다.Various types of time information can be displayed on the display unit 151. [ These pieces of information can be displayed in the form of letters, numbers, symbols, graphics, or icons.

이러한 정보의 입력을 위하여 상기 문자, 숫자, 기호, 그래픽 또는 아이콘 들 중 적어도 하나는 일정한 배열을 이루어 표시됨으로써 키패드의 형태로 구현될 수 있다. 이러한 키패드는 소위 '소프트키'라 불릴 수 있다.At least one of the letters, numbers, symbols, graphics, or icons may be displayed in a predetermined arrangement for inputting such information, thereby being implemented as a keypad. Such a keypad may be called a so-called " soft key ".

디스플레이부(151)는 전체 영역으로 작동되거나, 복수의 영역들로 나뉘어져 작동될 수 있다. 후자의 경우, 상기 복수의 영역들은 서로 연관되게 작동되도록 구성될 수 있다.The display unit 151 may operate as an entire area or may be divided into a plurality of areas and operated. In the latter case, the plurality of areas can be configured to operate in association with each other.

예를 들어, 디스플레이부(151)의 상부와 하부에는 출력창과 입력창이 각각 표시될 수 있다. 출력창과 입력창은 각각 정보의 출력 또는 입력을 위해 할당되는 영역이다. 입력창에는 전화 번호 등의 입력을 위한 숫자가 표시된 소프트키가 출력될 수 있다. 소프트키가 터치되면, 터치된 소프트키에 대응되는 숫자 등이 출력창에 표시된다. 조작 유닛이 조작되면 출력창에 표시된 전화번호에 대한 호 연결이 시도되거나 출력창에 표시된 텍스트가 애플리케이션에 입력될 수 있다.For example, an output window and an input window may be displayed on the upper and lower portions of the display unit 151, respectively. The output window and the input window are areas allocated for outputting or inputting information, respectively. In the input window, a softkey displaying a number for inputting a telephone number or the like may be output. When the softkey is touched, a number or the like corresponding to the touched softkey is displayed in the output window. When the operation unit is operated, call connection to the telephone number displayed in the output window may be attempted or text displayed in the output window may be input to the application.

디스플레이부(151) 또는 터치 패드는 스크롤(scroll)에 의해 터치 입력 받도록 구성될 수 있다. 사용자는 디스플레이부(151) 또는 터치 패드를 스크롤 함으로써 디스플레이부(151)에 표시된 개체, 예를 들어 아이콘 등에 위치한 커서 또는 포인터를 이동시킬 수 있다. 나아가, 손가락을 디스플레이부(151) 또는 터치 패드 상에서 이동시키는 경우, 손가락이 움직이는 경로가 디스플레이부(151)에 시각적으로 표시될 수도 있다. 이는 디스플레이부(151)에 표시되는 이미지를 편집함에 유용할 것이다.The display unit 151 or the touch pad may be configured to receive a touch input by scrolling. The user may move a cursor or a pointer located on an object displayed on the display unit 151, for example, an icon, by scrolling the display unit 151 or the touch pad. Further, when the finger is moved on the display unit 151 or the touch pad, the path along which the finger moves may be visually displayed on the display unit 151. [ This will be useful for editing the image displayed on the display unit 151. [

디스플레이부(151)(터치스크린) 및 터치 패드가 일정 시간 범위 내에서 함께 터치되는 경우에 대응하여, 단말기의 일 기능이 실행될 수도 있다. 함께 터치되는 경우로는, 사용자가 엄지 및 검지를 이용하여 단말기 바디를 집는(clamping) 경우가 있을 수 있다. 상기 일 기능은, 예를 들어, 디스플레이부(151) 또는 터치 패드에 대한 활성화 또는 비활성화 등일 수 있다.In response to the display unit 151 (touch screen) and the touch pad being touched together within a predetermined time range, one function of the terminal may be executed. In the case of being touched together, there may be a case where the user clamps the terminal body using the thumb and index finger. For example, the function may be activation or deactivation of the display unit 151 or the touch pad.

이하에서는 상기와 같이 구성된 단말기에서 구현될 수 있는 제어 방법에 관련된 실시예들에 대하여 첨부된 도면을 참조하여 설명한다. 후술하는 실시 예들은 단독으로 또는 서로 조합되어 사용될 수 있다. 또한, 후술하는 실시 예들이 상술한 사용자 인터페이스(UI)와 조합되어 사용될 수도 있다.Hereinafter, embodiments related to a control method that can be implemented in the terminal configured as described above will be described with reference to the accompanying drawings. Embodiments described later may be used alone or in combination with each other. In addition, embodiments described below may be used in combination with the above-described user interface (UI).

화면 방향 결정 방법 및 이를 이용하는 이동 단말기Screen direction determination method and mobile terminal using same

기존 이동 단말(또는 스마트 폰)의 경우 여러 가지 센서(가속도 센서(accelerometer sensor), 자이로 센서(gyroscope sensor), 지자기 센서(geomagnetic sensor), GPS(global positioning system)) 등을 이용하여 화면 방향(Screen Orientation)에 필요한 정보를 수집한다. 하지만 이러한 기존의 방식을 사용할 경우 사용자가 원하는 화면 방향과 불일치 하는 경우 발생하는 문제점이 있었다. In the case of the existing mobile terminal (or smart phone), the screen direction is screened using various sensors (accelerometer sensor, gyroscope sensor, geomagnetic sensor, global positioning system) Collect the information needed for Orientation. However, when using the conventional method, there was a problem that occurs when the user is inconsistent with the desired screen orientation.

본 명세서에 개시된 일시예에 따른 이동 단말기(100)(예를들어 스마트 폰)는 화면 방향을 결정하고자 할 때, 영상 인식을 이용해서 사용자의 안면의 방향, 즉 얼굴 또는 얼굴 특정 부분의 방향을 인식하고, 인식된 안면의 방향과 일치되도록 화면 방향을 결정할지를 파악하여 필요하다면 화면의 방향을 자동으로 변경시켜 줌으로써 사용자의 불편함을 최소화하면서 화면 방향 결정을 수행할 수 있다.When the mobile terminal 100 (for example, a smart phone) according to the exemplary embodiment disclosed in the present specification is to determine the screen direction, the mobile terminal 100 recognizes the direction of the user's face, that is, the direction of the face or a specific part of the face using image recognition. Also, by determining whether the screen direction is determined to match the recognized face direction and automatically changing the screen direction if necessary, the screen direction determination can be performed while minimizing user inconvenience.

예를 들면, 화면 방향의 변경이 일어나는 순간에 카메라를 이용하여 사용자의 눈과 얼굴 위치를 인식하고 그 정보를 기반으로 화면의 방향과 얼굴과 눈이 위치하는 방향이 일치하지 않을 경우, 즉 현재 화면의 방향이 사용자의 양쪽 눈과 수직을 이룰 경우 단말의 화면 방향을 자동으로 변경(또는 보정) 할 수 있다. For example, when the screen orientation changes, the camera recognizes the position of the user's eyes and face, and based on the information, the direction of the screen does not match the direction in which the face and eyes are located, that is, the current screen. When the direction of is perpendicular to both eyes of the user, the screen orientation of the terminal may be automatically changed (or corrected).

도 1에 나타낸 바와 같이, 이동 단말기(100)의 영상 인식을 이용한 화면 방향 결정 장치는 무선 통신부(110), A/V 입력부(120), 사용자 입력부(130), 센싱부(140), 제어부(180) 및 메모리(160)를 포함한다. A/V 입력부(120)는 영상 인식을 위한 카메라 모듈(121) 포함할 수 있고, 센싱부(140)부는 가속도 센서, 지자기 센서 그리고 GPS 센서 등을 포함할 수 있으며, 제어부(180)는 화면 방향 인식 모듈 및 화면 방향 결정 모듈 등을 포함할 수 있다.As shown in FIG. 1, the apparatus for determining the screen orientation using image recognition of the mobile terminal 100 may include a wireless communication unit 110, an A / V input unit 120, a user input unit 130, a sensing unit 140, and a controller ( 180 and memory 160. The A / V input unit 120 may include a camera module 121 for image recognition, and the sensing unit 140 may include an acceleration sensor, a geomagnetic sensor, and a GPS sensor, and the controller 180 may display a screen. It may include a recognition module and a screen orientation determination module.

여기서 가속도 센서란 단말기의 가속도를 계측하기 위한 장치로써 일정시간에 사이에 속도가 얼마나 변화했는지를 측정한다. 가속도 센서가 포함된 단말기는 속도가 상승했다던지 속도가 하강했다는 것을 판별 할 수 있다. 자이로 센서는 가속도를 검출하는 센서이다. 1초 동안에 각도가 얼마만큼 움직이는가를 측정하는 센서이다. 가속계 센서는 기본적으로 자이로를 보상하기 위한 센서로 많이 사용된다. 가속도 센서는 X, Y, Z 축 각각의 가속도와 각 방향으로 기울어짐을 나타내고, 자이로 센서는 센서가 몇 도 회전했는지를 나타낸다.Here, the acceleration sensor is a device for measuring the acceleration of the terminal and measures how much the speed has changed in a certain period of time. The terminal including the acceleration sensor may determine whether the speed has risen or the speed has fallen. Gyro sensors are sensors that detect acceleration. This sensor measures how much the angle moves in one second. Accelerometer sensor is basically used as a sensor for compensating the gyro. The acceleration sensor indicates the acceleration of each of the X, Y, and Z axes and the inclination in each direction, and the gyro sensor indicates how many degrees the sensor is rotated.

지자기 센서는 지구에서 발생하는 자기장의 세기를 측정할 수 있는 센서로 일반적으로 자기장의 세기를 측정할 수 있는 X, Y, Z 축 센서 간의 출력 벡터 합으로 센서에 미치는 자기장 방향을 측정하여 자신의 방향을 판별할 수 있다. 자이로 센서는 0도 방향을 설정해 주면, 그 방향으로부터 몇 도나 회전했는지 현재의 방향을 알아 낼 수 있다. Geomagnetic sensor is a sensor that can measure the strength of the magnetic field in the earth. It is a sum of the output vectors between X, Y, and Z axis sensors that can measure the strength of the magnetic field. Can be determined. By setting the zero degree direction, the gyro sensor can determine the current direction by how many degrees it has rotated from that direction.

하지만 처음에 지도상의 0도 방향이 어디인지 정해주어야 한다. 즉, 지도상에서 쓰려면 북쪽이 어디인지 알아야 사용할 수 있다. 이러한 지도상의 방향을 알기 위해서는 지자기 센서를 사용하거나 GPS 등으로 북쪽이 어느 방향인지 한번은 매칭한 뒤, 그 방향을 0도로 놓고 사용하여야 한다. 자이로 센서는 특히, 계속 돌다 보면 영점을 잃어 버리게 되어, 오차가 많이 생기게 되는데, 지자기 센서로 이러한 오차를 변경할 수 있다.But first you need to determine where the map is at 0 degrees. In other words, to write on the map, you need to know where the north is. In order to know the direction of the map, geomagnetic sensor or GPS should be used to match the direction of North once and then the direction should be set to 0 degree. In particular, the gyro sensor loses its zero point as it continues to rotate, resulting in a lot of errors, which can be changed with a geomagnetic sensor.

상기 센싱부(140)는 단말의 바디(body)가 지면과 수평 방향이 되는 방향을 기준으로 기울기 정도를 가속도 센서, 자이로 센서, 지자기 센서 또는 그 어떠한 조합을 이용해서 감지할 수 있다.The sensing unit 140 may detect an inclination degree based on a direction in which the body of the terminal is horizontal to the ground using an acceleration sensor, a gyro sensor, a geomagnetic sensor, or any combination thereof.

상기 제어부(180)의 화면 방향 인식 모듈은 무선 통신부(110), A/V 입력부(120) 그리고 메모리(160) 등으로부터 획득된 화면을 상기 센싱부(140)에서 감지된 단말의 기울기에 따라 재생 화면의 방향을 인식하는 기능을 수행 할 수 있다.The screen orientation recognition module of the controller 180 reproduces the screen obtained from the wireless communication unit 110, the A / V input unit 120, the memory 160, and the like according to the inclination of the terminal detected by the sensing unit 140. It can perform the function to recognize the direction of the screen.

상기 제어부(180)의 화면 방향 결정 모듈은 상기 제어부(180)의 화면 방향 인식 모듈에서 인식된 화면의 방향과 카메라를 통해서 인식된 사용자의 안면 방향 즉, 얼굴 또는 얼굴 특정 부분의 방향을 인식하고, 인식된 안면의 방향과 일치되도록 화면 방향을 결정할지를 파악하여 필요하다면 화면의 방향을 자동으로 변경시켜주는 기능을 수행할 수 있다.The screen direction determination module of the controller 180 recognizes the screen direction recognized by the screen direction recognition module of the controller 180 and the face direction of the user recognized through the camera, that is, the direction of the face or the face specific part. If the screen orientation is determined to match the recognized facial orientation, the screen orientation can be automatically changed if necessary.

도 2는 본 명세서에 개시된 일 실시예에 따른 이동 단말기의 영상 인식을 이용한 안면의 방향에 따라 화면 방향을 결정하는 방법을 나타내는 순서도이다.2 is a flowchart illustrating a method of determining a screen direction according to a direction of a face using image recognition of a mobile terminal according to one embodiment disclosed herein.

도 2에 도시된 바와 같이 이동 단말기(100)가 영상 인식을 이용한 안면의 방향에 따른 화면 방향 결정 방법은 기울기 감지 단계(S200), 화면의 방향 획득 단계(S210), 안면 방향 획득 단계(S220), 화면 방향과 안면 방향 비교 단계(S230), 판단 단계(S240), 화면 방향 변경 단계(S250) 및 화면 방향 유지 단계(260)를 포함한다.As shown in FIG. 2, the method for determining the screen direction according to the direction of the face using the image recognition by the mobile terminal 100 includes a tilt detection step (S200), a screen direction obtaining step (S210), and a face direction obtaining step (S220). , Comparing the screen direction with the face direction (S230), determining (S240), changing the screen direction (S250), and maintaining the screen direction (260).

상기 기울기 감지 단계(S200)에서 센싱부(140)는 가속도 센서, 자이로 센서, 지자기 센서 등 여러 가지 센서를 이용해서 지면과 수평 방향이 되는 단말기의 바디를 기준으로 단말의 전후 또는 좌우의 기울기에 대한 정보를 수집할 수 있다. In the tilt detection step (S200), the sensing unit 140 uses a variety of sensors, such as an acceleration sensor, a gyro sensor, and a geomagnetic sensor, to determine the inclination of the front, rear, left, and right sides of the terminal based on the body of the terminal in a horizontal direction with the ground. Information can be collected.

상기 화면의 방향 획득 단계(S210)에서 상기 제어부(180)의 화면 방향 인식 모듈은 A/V 입력부(120) 및 무선통신부(110) 및 센싱부(120)의 카메라(121)를 통하여 획득된 화면을 기반으로 상기 기울기 감지 단계에서(S200)에서 감지된 단말의 기울기에 따라 재생 화면의 방향을 결정한다. The screen direction recognition module of the controller 180 is obtained through the camera 121 of the A / V input unit 120, the wireless communication unit 110, and the sensing unit 120 in the direction obtaining step of the screen (S210). The direction of the playback screen is determined based on the tilt of the terminal detected in the tilt detection step (S200).

여기서 결정된 화면의 방향은 영상의 특성에 따라서 단말의 화면을 가로보기(landscape view) 상태 또는 세로보기(portrait view) 상태로 설정할 수 있고, 설정된 가로보기 상태 또는 세로 보기 상태에서 사용자가 화면을 바라볼 때 인식되는 화면 방향을 생성할 수 있다.The determined screen direction may be set to landscape view or portrait view of the terminal according to the characteristics of the image, and the user may view the screen in the set landscape view or portrait view. When the screen orientation is recognized can be generated.

상기 안면 방향 획득 단계(S220)에서 상기 제어부(180)의 화면 방향 결정 모듈은 상기 화면의 방향 획득 단계(210)에서 획득된 화면의 방향 정보를 기반으로 카메라를 통해서 촬영된 안면 정보, 즉 얼굴 또는 얼굴 특정 부분의 위치로부터 안면의 방향을 추출한다. In the face direction obtaining step (S220), the screen direction determining module of the controller 180 may use face information, that is, a face or a face, photographed through a camera based on the direction information of the screen obtained in the direction obtaining step 210 of the screen. The direction of the face is extracted from the position of the face specific part.

여기서 사용자의 안면, 즉 얼굴과 얼굴의 특정 부분의 위치에 대한 방향 정보를 추출하는 것은 예를 들면, 촬영된 사용자 얼굴의 이미지에서 얼굴의 단 방향과 장 방향을 파악하여, 상기 얼굴의 단 방향의 특정 위치와 수평이 되는 방향을 이용하거나, 촬영된 사용자 얼굴의 이미지에서 두 눈의 위치를 파악하여, 파악된 두 눈의 위치와 수평인 방향을 이용하는 것을 포함할 수 있다. 또한, 상기 안면의 방향을 획득 단계(S220)에서는 안면의 영상을 카메라가 소정의 시간 간격으로 인식하는 할 수 있으며 모드에 의해서 선택적으로 수행될 수 있다.Here, the extraction of the direction information on the face of the user, that is, the position of the face and a specific part of the face may be performed by, for example, identifying the short direction and the long direction of the face in the captured image of the user's face, It may include using a direction that is parallel with a specific position, or by using the direction of the two eyes in the image of the user's face to be photographed, using the direction and the direction that is horizontal to the identified eye. In addition, in the acquiring direction of the face (S220), the camera may recognize the image of the face at a predetermined time interval and may be selectively performed by a mode.

상기 화면 방향과 안면 방향 비교 단계(S230)에서 상기 제어부(180)의 화면 방향 결정 모듈은 상기 화면의 방향 획득 단계(S210)에서 획득된 화면 방향 정보와 상기 안면 방향 획득 단계(S220)에서 획득된 안면 방향을 서로 비교한다. In the screen direction and face direction comparison step (S230), the screen direction determination module of the controller 180 is obtained in the screen direction information obtained in the direction obtaining step (S210) and the face direction obtaining step (S220). Compare facial orientations with each other.

예를 들면, 화면 방향 획득 단계(S210)에서 설정된 화면의 가로보기 상태 또는 세로 보기 상태에서 생성된 화면 방향과 안면 방향 획득 단계(S220)에서 촬영된 사용자 얼굴의 이미지로부터 인식된 얼굴의 방향 또는 인식된 얼굴의 특정 부분의 방향을 서로 비교하여 화면 방향과 얼굴의 방향 또는 얼굴의 특정 부분의 방향 사이의 기울기가 평행(0도), 수직(90도) 또는 일정범위(예를 들면 0~45도)에 해당하는지를 비교할 수 있다.For example, the direction or recognition of the face recognized from the image of the user's face taken in the screen direction and the face direction obtaining step (S220) generated in the horizontal or vertical view state of the screen set in the screen direction obtaining step (S210) By comparing the directions of certain parts of the face with each other, the slope between the screen direction and the direction of the face or the direction of the specific part of the face is parallel (0 degree), vertical (90 degree) or a certain range (for example, 0 to 45 degree). ) Can be compared.

상기 판단 단계(S240)에서 상기 제어부(180)의 화면 방향 결정 모듈은 상기 화면 방향과 안면 방향 비교 단계(S230)에서 비교된 값을 미리 정해진 임계값과 비교 판단한다. In the determination step (S240), the screen direction determination module of the controller 180 compares the value compared in the screen direction and face direction comparison step (S230) with a predetermined threshold value.

상기 화면 방향 변경 단계(250)에서 상기 제어부(180)의 화면 방향 결정 모듈은 상기 판단 단계(S240)의 판단에 따라, 상기 비교된 값이 상기 임계값 보다 크다고 판단이 될 경우 획득된 화면 방향을 변경한다. 예를 들면 설정된 가로 보기 상태를 세로 보기 상태로 변경하거나, 세로 보기 상태를 가로 보기 상태로 변경 할 수 있다. In the screen orientation changing step 250, the screen orientation determination module of the controller 180 determines the screen orientation obtained when it is determined that the compared value is greater than the threshold value according to the determination of the determination step S240. Change it. For example, you can change the set landscape view to portrait view, or change the portrait view to landscape view.

상기 화면 방향 유지 단계(S260)에서 상기 제어부(180)의 화면 방향 결정 모듈은 상기 판단 단계(S240)의 판단에 따라, 상기 비교된 값이 상기 임계값 보다 작다고 판단이 될 경우 획득된 화면 방향을 그대로 유지한다. 예를 들면, 설정된 가로 보기 상태 또는 세로보기 상태를 그대로 유지할 수 있다.In the screen orientation maintaining step (S260), the screen orientation determination module of the controller 180 determines the screen orientation obtained when it is determined that the compared value is smaller than the threshold value according to the determination of the determination step (S240). Keep it. For example, it is possible to maintain the set landscape view or portrait view.

예를 들면, 도 2의 상기 판단 단계(240)에서 상기 임계값을 45도로 가정할 경우, 제어부(180)의 화면 방향 결정 모듈은 화면 방향과 얼굴의 방향 또는 얼굴의 특정 부분의 방향의 기울기(또는 각도)가 45도 이상일 경우에는 화면 방향과 얼굴의 방향 또는 얼굴의 특정 부분의 방향이 불일치 하는 범위에 있다고 판단하여 획득된 화면의 방향을 변경하고, 화면 방향과 얼굴의 방향 또는 얼굴의 특정 부분의 방향의 기울기(또는 각도)가 45도 이하일 경우에는 화면 방향과 얼굴 또는 얼굴의 특정 부분의 방향이 일치하는 범위에 있다고 판단하여 획득된 화면의 방향을 그대로 유지할 수 있다.For example, in the determination step 240 of FIG. 2, when the threshold value is assumed to be 45 degrees, the screen direction determination module of the controller 180 may determine the inclination of the screen direction and the direction of the face or the direction of a specific part of the face ( Or 45 degrees or more), it is determined that the screen direction and the direction of the face or the direction of a specific part of the face is in a range of inconsistency, and change the direction of the acquired screen, and the screen direction and the direction of the face or a specific part of the face. When the tilt (or angle) of the direction of the direction is 45 degrees or less, it may be determined that the screen direction and the direction of the face or a specific part of the face are in the same range to maintain the obtained screen direction as it is.

따라서, 본 발명은 사용자기 단말기 화면의 가로보기 상태 또는 화면 세로 상태를 수동으로 바꿀 필요 없이, 화면을 바라보는 사용자의 얼굴 방향 또는 얼굴의 특정 부분의 방향과 화면 방향을 비교하여 화면 보기 상태를 변환할 지의 여부를 파악하고 필요하다면 화면 보기 상태를 자동으로 변환시켜줄 수 있다.Accordingly, the present invention compares the orientation of the user's face looking at the screen or the direction of a specific part of the face with the screen direction without changing the horizontal view state or the screen portrait state of the terminal screen of the user device, and converts the screen view state. It can determine whether or not to do so and automatically switch the screen view state if necessary.

도 3은 본 명세서에 개시된 일 실시예에 따른 영상 인식을 통한 얼굴의 방향에 따라 화면 방향을 결정하는 방법을 나타낸 예시도이다.3 is an exemplary diagram illustrating a method of determining a screen direction according to a direction of a face through image recognition according to an exemplary embodiment disclosed herein.

도 3은 상기 화면 방향 획득 단계(S210)에서 설정된 화면의 가로보기 상태 또는 세로 보기 상태에서 생성된 화면 방향과 상기 안면 방향 정보 획득 단계(S220)에서 촬영된 사용자 얼굴의 이미지로부터 인식된 얼굴의 방향을 서로 비교하고 인식된 얼굴의 방향과 일치되도록 화면 방향을 결정(또는 보정) 할 수 있음을 나타내고 있다.3 illustrates a screen direction generated in a horizontal or vertical view state of the screen set in the screen direction obtaining step (S210) and a direction of a face recognized from an image of a user face photographed in the face direction information obtaining step (S220). Are compared with each other and the screen orientation can be determined (or corrected) to match the recognized face orientation.

도 3의 (a)는 화면 방향과 촬영된 사용자 얼굴의 이미지에서 얼굴의 단 방향과 장 방향을 파악하여, 상기 얼굴의 단 방향의 특정 위치와 수평이 되는 얼굴의 방향을 서로 비교하고, 화면 방향과 얼굴의 방향이 서로 일치하지 않을 경우, 화면의 방향이 얼굴의 방향과 일치하게 되도록 화면 방향을 자동으로 변경할 수 있음을 나타내고 있다.3 (a) shows the screen direction and the short direction and the long direction of the face in the photographed image of the user's face, compares the specific position of the short direction of the face with the direction of the face to be horizontal, and the screen direction. When the directions of the face and the face do not coincide with each other, the screen direction may be automatically changed so that the screen direction coincides with the face direction.

도 3의 (b)는 화면 방향과 촬영된 사용자 얼굴의 이미지에서 얼굴의 단 방향과 장 방향을 파악하여, 상기 얼굴의 단 방향의 특정 위치와 수평이 되는 방향을 서로 비교하고, 화면 방향과 얼굴의 방향이 일치할 경우, 화면 방향을 그대로 유지할 수 있음을 나타내고 있다.Figure 3 (b) is to grasp the short direction and the long direction of the face in the screen direction and the image of the user's face, and compare the specific position and the horizontal direction of the short direction of the face with each other, the screen direction and the face If the directions of 일치 match, the screen direction can be maintained as it is.

도 4는 본 명세서에 개시된 일 실시예에 따른 영상 인식을 통한 얼굴 특정 부분의 방향에 따라 화면 방향을 결정하는 방법을 나타낸 예시도이다.4 is an exemplary view illustrating a method of determining a screen direction according to a direction of a face specific part through image recognition according to an exemplary embodiment disclosed herein.

도 4는 상기 방향 정보 획득 단계(S210)에서 설정된 화면의 가로보기 상태 또는 세로 보기 상태에서 생성된 화면 방향과 상기 안면 방향 획득 단계(S220)에서 촬영된 사용자 얼굴의 이미지로부터 인식된 얼굴의 특정 부분의 방향을 서로 비교하고 이를 이용해서 얼굴의 특정 부분의 방향과 일치되도록 화면 방향을 결정(또는 보정) 할 수 있음을 나타내고 있다.4 illustrates a specific part of a face recognized from a screen direction generated in a horizontal or vertical view state of the screen set in the direction information obtaining step S210 and an image of a user face photographed in the face direction obtaining step S220. It shows that the directions of the screens can be compared with each other and the screen directions can be determined (or corrected) to match the direction of a specific part of the face.

도 4의 (a)는 화면 방향과 촬영된 사용자 얼굴의 이미지에서 두 눈의 위치를 파악하여, 파악된 두 눈의 위치와 수평인 방향을 서로 비교하고, 화면 방향과 파악된 두 눈의 위치와 수평인 방향이 서로 일치하지 않을 경우, 두 눈의 위치와 수평인 방향과 일치하게 되도록 화면 방향을 자동으로 변경할 수 있음을 나타내고 있다.Figure 4 (a) is to determine the position of the two eyes in the screen direction and the image of the user's face, and compare the position of the identified eyes and the horizontal direction, and the screen direction and the position of the two eyes When the horizontal directions do not coincide with each other, the screen direction may be automatically changed to coincide with the positions of the eyes and the horizontal direction.

도 4의 (b)는 화면 방향과 촬영된 사용자 얼굴의 이미지에서 두 눈의 위치를 파악하여, 파악된 두 눈의 위치와 수평인 방향을 서로 비교하고, 화면 방향과 파악된 두 눈의 위치와 수평인 방향이 서로 일치할 경우, 화면 방향을 그대로 유지 할 수 있음을 나타내고 있다.Figure 4 (b) is to determine the position of the two eyes in the screen direction and the image of the user's face, and compare the position of the two eyes and the horizontal direction, and the screen direction and the position of the two eyes When the horizontal directions coincide with each other, the screen direction can be maintained as it is.

도 5는 본 명세서에 개시된 일 실시예에 따른 이동 단말기가 모드 선택을 통해서 영상 인식을 이용한 화면 방향 결정하는 방법을 나타낸 순서도이다.FIG. 5 is a flowchart illustrating a method of determining a screen orientation using image recognition through mode selection by a mobile terminal according to an exemplary embodiment disclosed herein.

도 5에 나타낸 바와 같이 이동 단말기(100)가 모드 선택을 통해서 영상 인식을 이용한 화면 방향 결정을 수행하는 방법은 기울기 감지 단계(S300), 화면 방향 획득 단계(S305), 모드 선택 단계(S310), 안면 방향 획득 단계(S315), 안면 방향 획득 검증 단계(S320), 에러 표시 단계(S325), 화면 방향과 안면 방향 비교 단계(S330), 판단 단계(S335), 화면 방향 변경 단계(S340) 및 화면 방향 유지 단계(S345)를 포함한다.As shown in FIG. 5, the method for determining the screen direction using image recognition through the mode selection by the mobile terminal 100 includes a tilt detection step (S300), a screen direction acquisition step (S305), a mode selection step (S310), Face direction acquisition step (S315), face direction acquisition verification step (S320), error display step (S325), screen direction and face direction comparison step (S330), determination step (S335), screen direction change step (S340) and screen The direction maintaining step S345 is included.

상기 기울기 감지 단계(S300)에서 센싱부(140)는 가속도 센서, 자이로 센서, 지자기 센서 등 여러 가지 센서를 이용해서 지면과 수평 방향이 되는 단말기의 바디를 기준으로 단말의 전후 또는 좌우의 기울기에 대한 정보를 수집할 수 있다. In the tilt detection step (S300), the sensing unit 140 uses a variety of sensors, such as an acceleration sensor, a gyro sensor, and a geomagnetic sensor, to determine the inclination of the front, rear, left, and right sides of the terminal on the basis of the body of the terminal in a horizontal direction with the ground. Information can be collected.

상기 화면의 방향 획득 단계(S305)에서 상기 제어부(180)의 화면 방향 인식 모듈은 A/V 입력부(120) 및 무선통신부(110) 및 센싱부(120)의 카메라(121)를 통하여 획득된 화면을 기반으로 상기 기울기 감지 단계에서(S300)에서 감지된 단말의 기울기에 따라 재생 화면의 방향을 결정한다. The screen direction recognition module of the controller 180 is obtained through the camera 121 of the A / V input unit 120, the wireless communication unit 110, and the sensing unit 120 in the direction obtaining step of the screen (S305). The direction of the playback screen is determined based on the tilt of the terminal detected in the tilt detection step (S300).

상기 모드 선택 단계(S310)에서 상기 제어부(180)가 상기 화면의 방향 정보를 획득한 후(S305) 추가적으로 영상 인식을 통해서 사용자의 안면 방향 정보, 즉 얼굴과 얼굴의 특정 부분에 대한 위치 방향 정보를 이용할 것인지의 여부를 단말기 화면에 표시하여 사용자가 선택하도록 할 수 있다. After the control unit 180 obtains the direction information of the screen in the mode selection step (S310) (S305), the face direction information of the user, that is, the position direction information of the face and a specific part of the face is additionally obtained through image recognition. Whether to use it or not is displayed on the terminal screen so that the user can select it.

만일, 사용자가 안면 방향 정보 이용해서 획득된 방향 정보를 결정(또는 보정) 하기를 원하면 영상 인식 모드를 추가적으로 선택하면 되고, 이를 원하지 않으면 영상 인식을 통한 안면 방향 정보에 대한 정보 없이 방향 정보 획득 단계(S305)만으로 이동 단말기(100)가 동작하게 될 것이다.If the user wants to determine (or correct) the acquired direction information by using the face direction information, the user may additionally select an image recognition mode. Otherwise, the user may obtain direction information without information on the face direction information through image recognition. The mobile terminal 100 will operate only in step S305.

상기 안면 방향 획득 단계(S315)에서 상기 제어부(180)의 화면 방향 결정 모듈은 상기 화면의 방향 획득 단계(S305)에서 획득된 화면의 방향을 기반으로 카메라를 통해서 획득된 안면 정보, 즉 얼굴 또는 얼굴 특정 부분의 위치로부터 안면의 방향을 추출한다. In the face direction obtaining step (S315), the screen direction determining module of the controller 180 acquires the face information acquired through the camera based on the direction of the screen obtained in the direction obtaining step (S305), that is, the face or the face. The facial direction is extracted from the location of the specific part.

상기 안면 방향 획득 검증 단계(S320)에서 상기 제어부(180)의 화면 방향 결정 모듈은 상기 안면 방향 획득 단계(S315)가 올바르게 동작하고 있는지를 판단하고, 안면 방향 획득 단계가 제대로 동작되고 있지 않을 경우에는 에러 표시를 나타낼 수 있다. 예를 들면 화면의 색 변화, 화면의 깜박임, 음성(voice) 그리고 소리(sound) 등을 이용해서 사용자에게 에러 상태임을 사용자에게 알려 줄 수 있다(S325).In the face direction acquisition verification step (S320), the screen direction determination module of the controller 180 determines whether the face direction acquisition step (S315) is operating correctly, and when the face direction acquisition step is not properly performed, Error indication can be displayed. For example, the user may be informed that the user is in an error state by using a color change of the screen, flickering of the screen, voice, and sound (S325).

상기 화면 방향과 안면 방향 비교 단계(S330)에서 상기 제어부(180)의 화면 방향 결정 모듈은 상기 안면 방향 획득 검증 단계(S320)에서 사용자의 안면 방향이 제대로 획득되고 있는 경우, 상기 화면의 방향 획득 단계(S305)에서 획득된 화면의 방향과 상기 안면 방향 획득 단계(S315)에서 획득된 안면 방향을 서로 비교한다. In the screen direction and face direction comparison step (S330), the screen direction determination module of the controller 180 acquires the direction of the screen when the face direction of the user is properly obtained in the face direction acquisition verification step (S320). The direction of the screen acquired in S305 and the face direction obtained in the face direction obtaining step S315 are compared with each other.

상기 판단 단계(S335)에서 상기 제어부(180)의 화면 방향 결정 모듈은 상기 화면 방향과 상기 안면 방향 비교 단계(S330)에서 비교된 값을 미리 정해진 임계값과 비교 판단한다. In the determining step S335, the screen direction determining module of the controller 180 compares and compares the screen direction and the value compared in the face direction comparing step S330 with a predetermined threshold value.

상기 화면 방향 변경 단계(S340)에서 상기 제어부(180)의 화면 방향 결정 모듈은 상기 판단 단계(S335)에서의 판단에 따라, 상기 비교된 값이 상기 임계값 보다 크다고 판단이 될 경우 화면 방향을 변경한다. In the screen direction changing step S340, the screen direction determining module of the controller 180 changes the screen direction when it is determined that the compared value is greater than the threshold value according to the determination in step S335. do.

상기 화면 방향 유지 단계(S345)에서 상기 제어부(180)의 화면 방향 결정 모듈은 상기 판단 단계(S335)의 판단에 따라, 상기 비교된 값이 상기 임계값 보다 작다고 판단이 될 경우 화면 방향을 그대로 유지한다. In the screen orientation maintaining step S345, the screen orientation determination module of the controller 180 maintains the screen orientation as it is determined that the compared value is smaller than the threshold value according to the determination of the determination step S335. do.

이상과 같이 예시된 도면을 참조로 하여, 본 명세서에 개시된 적어도 하나의 실시예에 따른 장치 및 방법에 대해여 설명하였으나, 본 명세서는 본 명세서에 개시된 실시예와 도면에 의해 한정되지 않으며, 그 발명의 기술사상 범위 내에서 당업자에 의해 다양한 변형이 이루어질 수 있음은 물론이다. With reference to the drawings illustrated as above, the apparatus and method according to at least one embodiment disclosed herein has been described, but the present specification is not limited by the embodiments and drawings disclosed herein, the invention Of course, various modifications can be made by those skilled in the art within the scope of the technical idea.

또한, 본 명세서에 개시된 일 실시예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.In addition, according to one embodiment disclosed herein, the above-described method may be implemented as code that can be read by a processor in a medium in which a program is recorded. Examples of the medium that can be read by the processor include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, etc., and may be implemented in the form of a carrier wave (e.g., transmission over the Internet) .

상기와 같이 설명된 이동 단말기(100)는 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The mobile terminal 100 described above is not limited to the configuration and method of the embodiments described above, the embodiments are a combination of all or part of each embodiment selectively so that various modifications can be made It may be configured.

이상에서 본 명세서에 개시된 실시예들을 첨부된 도면들을 참조로 설명하였다.The embodiments disclosed herein have been described with reference to the accompanying drawings.

여기서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 본 명세서에 개시된 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Here, terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary meanings, but should be construed as meaning and concept consistent with the technical idea disclosed in the present specification.

따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 명세서에 개시된 일 실시예에 불과할 뿐이고, 본 명세서에 개시된 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in the present specification and the configurations shown in the drawings are only examples described in the present specification, and not all of the technical ideas disclosed in the present specification are described. Therefore, various modifications It is to be understood that equivalents and modifications are possible.

100: 이동단말기 110: 무선통신부
120: A/V 입력부 130: 사용자 입력부
140: 센싱부 150: 출력부
160: 메모리 170: 인터페이스부
180: 제어부 190: 전원 공급부
100: mobile terminal 110: wireless communication unit
120: A / V input unit 130: user input unit
140: sensing unit 150: output unit
160: memory 170: interface unit
180: control unit 190: power supply unit

Claims (20)

바디의 기울기를 감지하는 단계;
카메라를 통해서 안면의 방향을 인식하는 단계;
상기 감지된 바디의 기울기와 안면의 방향에 따라서 화면의 방향(screen orientation)을 결정하는 단계; 및
상기 결정된 방향으로 화면을 디스플레이하는 단계;
를 포함하는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 방법.
Sensing the tilt of the body;
Recognizing a face direction through a camera;
Determining a screen orientation according to the detected inclination of the body and the direction of the face; And
Displaying a screen in the determined direction;
Screen orientation determination method of a mobile terminal comprising a.
제 1항에 있어서,
상기 바디의 기울기를 감지하는 단계는 지면과 수평 방향이 되는 바디를 기준으로 기울기 정도를 가속도 센서, 자이로 센서, 지자기 센서 또는 그 어떠한 조합을 이용해서 감지하는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 방법.
The method of claim 1,
The detecting of the inclination of the body may include detecting an inclination degree based on a body that is in a horizontal direction with the ground using an acceleration sensor, a gyro sensor, a geomagnetic sensor, or any combination thereof. .
제 1항에 있어서,
상기 안면의 방향을 인식하는 단계는 얼굴 또는 얼굴의 특정 부분의 방향을 인식하는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 방법.
The method of claim 1,
Recognizing the direction of the face is a screen direction determination method of the mobile terminal, characterized in that for recognizing the direction of the face or a specific portion of the face.
제 3항에 있어서,
상기 얼굴의 방향을 인식하는 것은 얼굴의 이미지에서 얼굴의 단 방향과 장 방향을 파악하여, 상기 얼굴의 단방향의 특정 위치와 수평이 되는 방향을 이용하는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 방법.
The method of claim 3,
Recognizing the direction of the face is a screen direction determination method of the mobile terminal, characterized in that the direction of the face in the image of the face to grasp the direction of the unidirectional direction of the specific direction.
제 3항에 있어서,
상기 얼굴의 특정 부분의 방향을 인식하는 것은 얼굴의 이미지에서 두 눈의 위치를 파악하여, 파악된 두 눈의 위치와 수평인 방향을 이용하는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 방법.
The method of claim 3,
Recognizing the direction of the specific part of the face is to determine the position of the two eyes in the image of the face, the screen direction determination method of the mobile terminal, characterized in that using the direction that is horizontal to the identified position of the two eyes.
제 1항에 있어서,
상기 안면의 방향을 인식하는 단계는 안면의 영상을 카메라가 소정의 시간 간격으로 인식하는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 방법.
The method of claim 1,
Recognizing the direction of the face is a screen direction determination method of a mobile terminal, characterized in that the camera recognizes the image of the face at a predetermined time interval.
제 1항에 있어서,
상기 안면의 방향을 인식하는 단계는 모드에 의해서 선택적으로 수행되는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 방법.
The method of claim 1,
Recognizing the direction of the face is a screen direction determination method of the mobile terminal, characterized in that it is selectively performed by the mode.
제 1항에 있어서,
상기 화면의 방향을 결정하는 단계는 설정된 화면의 가로 보기 상태 또는 세로보기 상태에서 화면의 방향과 사용자 얼굴의 이미지로부터 인식된 얼굴의 방향 또는 얼굴의 특정 부분의 방향을 서로 비교하는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 방법.
The method of claim 1,
The determining of the direction of the screen may include: comparing the direction of the screen with the direction of the face recognized from the image of the user's face or the direction of a specific part of the face in the horizontal or vertical view of the set screen. How to determine the screen orientation of the terminal.
제 8항에 있어서,
상기 화면의 방향을 결정하는 단계는 상기 비교 결과에 따라 화면 방향과 얼굴 또는 얼굴의 특정 부분의 방향 사이의 기울기가 일정 범위 내에 해당하지 않으면, 설정된 가로보기 상태를 세로보기 상태로 변경하거나, 설정된 세로보기 상태를 가로보기 상태로 변경하는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 방법.
The method of claim 8,
The determining of the direction of the screen may include changing the set horizontal view state to the vertical view state if the inclination between the screen direction and the direction of the face or a specific part of the face does not fall within a predetermined range according to the comparison result. The screen orientation determination method of the mobile terminal, characterized in that for changing the view state to the landscape view state.
제 8항에 있어서,
상기 화면의 방향을 결정하는 단계는 상기 비교 결과에 따라 화면 방향과 얼굴 또는 얼굴의 특정 부분의 방향 사이의 서로에 대한 기울기가 일정 범위 내에 해당하면, 설정된 가로 보기 상태 또는 세로보기 상태를 유지하는 것을 특징으로 하는 이동 단말기의 화면의 방향 결정 방법.
The method of claim 8,
The determining of the direction of the screen may include maintaining the set horizontal or vertical view state when the inclination with respect to each other between the screen direction and the direction of the face or a specific part of the face falls within a predetermined range according to the comparison result. Characterized in that the direction of the screen of the mobile terminal.
바디의 기울기를 감지하는 센싱부;
카메라를 통해서 안면의 방향을 인식하고,
상기 바디의 기울기와 안면의 방향에 따라서 화면의 방향을 결정하는 제어부; 및
상기 결정된 방향으로 화면을 디스플레이하는 출력부;
를 포함하는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 장치.
Sensing unit for detecting the tilt of the body;
Through the camera to recognize the direction of the face,
A controller configured to determine a direction of a screen according to a slope of the body and a direction of a face; And
An output unit which displays a screen in the determined direction;
Screen orientation determination device of a mobile terminal, comprising a.
제 11항에 있어서
상기 바디의 기울기를 감지하는 센싱부는 지면과 수평 방향이 되는 바디를 기준으로 기울기 정도를 가속도 센서, 자이로 센서 또는 그 어떠한 조합을 이용해서 감지하는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 장치.
The method of claim 11, wherein
The sensing unit for detecting the inclination of the body based on the body in the horizontal direction with respect to the ground to determine the degree of inclination using an acceleration sensor, a gyro sensor or any combination thereof.
제 11항에 있어서
상기 안면의 방향을 인식하는 제어부는 얼굴 또는 얼굴의 특정 부분의 위치를 인식하는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 장치.
The method of claim 11, wherein
And a controller for recognizing the direction of the face recognizes a position of a face or a specific part of the face.
제 13항에 있어서
상기 얼굴의 방향을 인식하는 제어부는 얼굴의 이미지에서 얼굴의 단 방향과 장 방향을 파악하여, 상기 얼굴의 단 방향의 특정 위치와 수평이 되는 방향을 이용하는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 장치.
The method of claim 13
The controller for recognizing the direction of the face detects the short direction and the long direction of the face in the image of the face, and uses a direction that is parallel to a specific position of the short direction of the face. .
제 13항에 있어서
상기 얼굴의 특정 부분의 방향을 인식하는 제어부는 얼굴의 이미지에서 두 눈의 위치를 파악하여, 파악된 두 눈의 위치와 수평인 방향을 이용하는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 장치.
The method of claim 13
The control unit for recognizing the direction of the specific part of the face to determine the position of the two eyes in the image of the face, the screen orientation determination device of the mobile terminal, characterized in that using the direction that is horizontal to the position of the identified eye.
제 11항에 있어서
상기 안면의 방향을 인식하는 제어부는 안면의 영상을 카메라가 소정의 시간 간격으로 인식하는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 장치.
The method of claim 11, wherein
The controller for recognizing the direction of the face is a screen direction determination apparatus of the mobile terminal, characterized in that the camera recognizes the image of the face at a predetermined time interval.
제 11항에 있어서
상기 안면의 방향을 인식하는 제어부는 모드에 의해서 선택적으로 수행되는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 장치.
The method of claim 11, wherein
The controller for recognizing the direction of the face is selectively performed by the mode of the screen direction determining apparatus of the mobile terminal.
제 11항에 있어서
상기 화면의 방향을 결정하는 제어부는 설정된 화면의 가로 보기 상태 또는 세로보기 상태에서 화면 방향과 촬영된 사용자 얼굴의 이미지로부터 인식된 얼굴의 방향 또는 얼굴의 특정 부분의 방향을 서로 비교하는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 장치.
The method of claim 11, wherein
The controller for determining the orientation of the screen may compare the orientation of the screen and the orientation of a specific part of the face recognized from the photographed image of the user's face with the landscape or portrait view of the set screen. Device for determining the screen orientation of the mobile terminal.
제 18항에 있어서
상기 화면의 방향을 결정하는 제어부는 상기 비교 결과에 따라 화면 방향과 얼굴 또는 얼굴의 특정 부분의 방향 사이의 서로에 대한 기울기가 일정 범위 내에 해당하지 않으면, 설정된 가로보기 상태를 세로보기 상태로 변경하거나, 설정된 세로보기 상태를 가로보기 상태로 변경하는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 장치.
The method of claim 18, wherein
The controller which determines the orientation of the screen may change the set landscape view state to portrait view state if the inclination with respect to each other between the screen direction and the direction of the face or a specific part of the face does not fall within a predetermined range according to the comparison result. And changing the set portrait view state to landscape view state.
제 18항에 있어서
상기 화면의 방향을 결정하는 제어부는 상기 비교 결과에 따라 화면 방향과 얼굴 또는 얼굴의 특정 부분의 방향 사이의 서로에 대한 기울기가 일정 범위 내에 해당하면, 설정된 가로 보기 상태 또는 세로보기 상태를 유지하는 것을 특징으로 하는 이동 단말기의 화면 방향 결정 장치.
The method of claim 18, wherein
The controller which determines the orientation of the screen maintains the set landscape view or portrait view when the inclination of each other between the screen direction and the direction of the face or a specific part of the face falls within a predetermined range according to the comparison result. An apparatus for determining the screen orientation of a mobile terminal.
KR1020110068030A 2011-07-08 2011-07-08 Method for screen orientation determination and mobile terminal using this method KR20130006154A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110068030A KR20130006154A (en) 2011-07-08 2011-07-08 Method for screen orientation determination and mobile terminal using this method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110068030A KR20130006154A (en) 2011-07-08 2011-07-08 Method for screen orientation determination and mobile terminal using this method

Publications (1)

Publication Number Publication Date
KR20130006154A true KR20130006154A (en) 2013-01-16

Family

ID=47837301

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110068030A KR20130006154A (en) 2011-07-08 2011-07-08 Method for screen orientation determination and mobile terminal using this method

Country Status (1)

Country Link
KR (1) KR20130006154A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9678705B2 (en) 2013-11-12 2017-06-13 Samsung Electronics Co., Ltd. Displaying information on wearable devices
KR20180131777A (en) * 2017-06-01 2018-12-11 인하대학교 산학협력단 Apparatus and method for inputting pin without touch on smartphone
KR20190100716A (en) * 2018-02-21 2019-08-29 삼성전자주식회사 Electronic device and control method thereof
CN115662039A (en) * 2022-12-28 2023-01-31 深圳市江元科技(集团)有限公司 Method, device and readable storage medium for preventing device loss

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9678705B2 (en) 2013-11-12 2017-06-13 Samsung Electronics Co., Ltd. Displaying information on wearable devices
KR20180131777A (en) * 2017-06-01 2018-12-11 인하대학교 산학협력단 Apparatus and method for inputting pin without touch on smartphone
KR20190100716A (en) * 2018-02-21 2019-08-29 삼성전자주식회사 Electronic device and control method thereof
WO2019164281A1 (en) * 2018-02-21 2019-08-29 Samsung Electronics Co., Ltd. Electronic device and control method thereof
US11194894B2 (en) 2018-02-21 2021-12-07 Samsung Electronics Co., Ltd. Electronic device and control method thereof
CN115662039A (en) * 2022-12-28 2023-01-31 深圳市江元科技(集团)有限公司 Method, device and readable storage medium for preventing device loss

Similar Documents

Publication Publication Date Title
US9081541B2 (en) Mobile terminal and method for controlling operation thereof
US9575589B2 (en) Mobile terminal and control method thereof
US20130268883A1 (en) Mobile terminal and control method thereof
KR20130115223A (en) Mobile terminal, display device, and control method therefor
KR20110035563A (en) Mobile terminal and operation control method thereof
KR20130107274A (en) Mobile/portable terminal, device for displaying and method for controlling same
KR20100050595A (en) Method of controlling instant message and mobile terminal using the same
KR20100094754A (en) User interface method for inputting a character and mobile terminal using the same
US20130101140A1 (en) Electronic device and method of operating the same
KR20120076137A (en) Mobile terminal and method for controlling screen display thereof
KR20110037064A (en) Mobile terminal and method for controlling the same
KR20130006154A (en) Method for screen orientation determination and mobile terminal using this method
KR101537684B1 (en) Mobile terminal and method of calibration sensitivity of proximity touch therefor
KR20110034264A (en) Method for preventing malfuntion of sensor and mobile terminal thereof
KR20130059123A (en) Mobile terminal and control method thereof
KR101985507B1 (en) Terminal and control method thereof
KR20120076147A (en) Mobile terminal and method for controlling screen display thereof
KR101917692B1 (en) Mobile terminal
KR101786513B1 (en) METHOD FOR enhancing a screen of the mobile terminal
KR20120077295A (en) Method for converting text to speech in mobile communication apparatus and apparatus the same
KR20120069362A (en) Information displaying apparatus and method thereof
KR101729981B1 (en) Method for content control and mobile terminal using this method
KR101504652B1 (en) Mobile terminal and method for changing display mode based on the device wobbles thereof
KR101917687B1 (en) Mobile terminal and control method thereof
KR101892007B1 (en) Mobile terminal and control method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application