KR102140740B1 - A mobile device, a cradle for mobile device, and a method of managing them - Google Patents

A mobile device, a cradle for mobile device, and a method of managing them Download PDF

Info

Publication number
KR102140740B1
KR102140740B1 KR1020140011162A KR20140011162A KR102140740B1 KR 102140740 B1 KR102140740 B1 KR 102140740B1 KR 1020140011162 A KR1020140011162 A KR 1020140011162A KR 20140011162 A KR20140011162 A KR 20140011162A KR 102140740 B1 KR102140740 B1 KR 102140740B1
Authority
KR
South Korea
Prior art keywords
user
mobile terminal
information
cradle
voice
Prior art date
Application number
KR1020140011162A
Other languages
Korean (ko)
Other versions
KR20150090476A (en
Inventor
박찬호
김강욱
김재열
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140011162A priority Critical patent/KR102140740B1/en
Publication of KR20150090476A publication Critical patent/KR20150090476A/en
Application granted granted Critical
Publication of KR102140740B1 publication Critical patent/KR102140740B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Abstract

본 발명은 사용자의 동작이나 음성에 따라 구동되는 이동단말기 및 이동단말기용 거치대, 그리고 이들의 구동방법에 관한 것으로, 본 발명의 이동단말기는, 신호 및 정보를 출력하는 출력부와; 사용자의 동작 및 음성을 감지하는 입력부와; 상기 감지된 사용자의 동작 및 음성을 근거로 하여 상기 사용자의 행동패턴 정보를 생성하고, 상기 행동패턴 정보에 따라 상기 사용자의 행동을 예측하는 제어부를 포함한다. The present invention relates to a mobile terminal and a cradle for a mobile terminal driven according to a user's operation or voice, and a driving method thereof. The mobile terminal of the present invention includes an output unit for outputting signals and information; An input unit for sensing a user's motion and voice; And a control unit generating the behavior pattern information of the user based on the detected user's motion and voice, and predicting the user's behavior according to the behavior pattern information.

Description

이동단말기, 이동단말기용 거치대 그리고 이들의 구동방법{A MOBILE DEVICE, A CRADLE FOR MOBILE DEVICE, AND A METHOD OF MANAGING THEM}Mobile terminal, cradle for mobile terminal and their driving method{A MOBILE DEVICE, A CRADLE FOR MOBILE DEVICE, AND A METHOD OF MANAGING THEM}

본 발명은 이동단말기 및 이동단말기용 거치대에 관한 것으로, 더욱 상세하게는 사용자의 동작 및 음성에 따라 구동되는 이동단말기, 이동단말기용 거치대, 그리고 이들의 구동방법에 관한 것이다.The present invention relates to a mobile terminal and a cradle for a mobile terminal, and more particularly, to a mobile terminal driven by a user's motion and voice, a cradle for a mobile terminal, and a driving method thereof.

최근 스마트폰, 태블릿 PC 등과 같은 휴대단말기의 사용이 보편화되면서, 휴대단말기의 충전 및 거치를 위한 기기의 개발도 활발해 지고 있다. 일반적으로, 휴대단말기의 거치대는 스스로 움직일 수 없고 휴대단말기를 고정시키는 구조로 되어 있기 때문에 단지 휴대단말기의 충전과 거치만을 위한 용도로만 사용되고 있다. 2. Description of the Related Art Recently, as the use of portable terminals such as smartphones and tablet PCs has become common, development of devices for charging and mounting of portable terminals has also been actively conducted. In general, the mobile terminal's cradle cannot be moved by itself, and is used only for charging and mounting the mobile terminal because it has a structure for fixing the mobile terminal.

이에 반해, 사용자들은 거치대를 더 다양한 용도로 사용하고자 하는 욕구가 있다. 예를 들어, 거치대에 장착된 휴대단말기를 손으로 직접 조작할 수 없는 경우에도 휴대단말기의 기능들을 사용할 수 있기를 원한다. 따라서, 더 다양한 기능을 제공하는 새로운 휴대단말기 및 휴대단말기용 거치대의 제안이 요구된다. In contrast, users have a desire to use the cradle for more various uses. For example, it is desired to be able to use the functions of the portable terminal even when the portable terminal mounted on the cradle cannot be directly operated by hand. Therefore, there is a need for a new portable terminal and a portable terminal holder that provide more various functions.

본 발명은 전술한 필요성을 충족하기 위해 제안되는 것으로서, 사용자의 동작이나 음성에 따라 구동되는 이동단말기 및 이동단말기용 거치대, 그리고 이들의 구동방법을 제공하는 것을 목적으로 한다. The present invention is proposed to meet the above-mentioned needs, and it is an object of the present invention to provide a mobile terminal, a mobile terminal cradle driven by a user's motion or voice, and a driving method for the mobile terminal.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.. The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by a person having ordinary knowledge in the technical field to which the present invention belongs from the following description. Will be able to...

상기 목적을 달성하기 위해 본 발명은, 신호 및 정보를 출력하는 출력부와; 사용자의 동작 및 음성을 감지하는 입력부와; 상기 감지된 사용자의 동작 및 음성을 근거로 하여 상기 사용자의 행동패턴 정보를 생성하고, 상기 행동패턴 정보에 따라 상기 사용자의 행동을 예측하는 제어부를 포함하는 이동단말기를 제공한다.In order to achieve the above object, the present invention, an output unit for outputting signals and information; An input unit for sensing a user's motion and voice; It provides a mobile terminal including a control unit for generating the behavior pattern information of the user based on the detected user's motion and voice, and predicts the user's behavior according to the behavior pattern information.

여기서, 상기 행동패턴 정보는 상기 사용자의 가전기기 사용 이력에 대한 정보를 포함하는데, 상기 제어부는 상기 사용자의 가전기기 사용 이력에 대한 정보를 근거로 하여 상기 사용자의 가전기기 사용 일정을 예측하고, 상기 사용자에게 가전기기의 사용을 안내하기 위한 신호 및 정보 중 적어도 하나를 출력하도록 상기 출력부를 제어한다.Here, the behavior pattern information includes information on the user's home appliance use history, and the controller predicts the user's home appliance use schedule based on the user's home appliance use history, and the The output unit is controlled to output at least one of signals and information for guiding the user to use the home appliance.

상기 제어부는 상기 사용자의 동작 또는 음성이 감지된 위치를 향해 이동단말기의 전면이 향하도록 이동단말기용 거치대를 제어하고, 이동단말기의 상태 변화에 따라 이동단말기용 거치대의 동작을 제어한다. The control unit controls the mobile terminal cradle so that the front of the mobile terminal faces toward the position where the user's motion or voice is sensed, and controls the operation of the mobile terminal cradle according to the state change of the mobile terminal.

그리고, 상기 제어부는 상기 행동패턴 정보와 함께 주변환경 정보를 이용하여 상기 사용자의 행동을 예측하고, 상기 예측된 행동을 안내하기 위한 신호 및 정보 중 적어도 하나를 출력하도록 상기 출력부를 제어한다.In addition, the control unit controls the output unit to predict the user's behavior using the environment pattern information together with the behavior pattern information, and output at least one of signals and information for guiding the predicted behavior.

또한, 상기 목적을 달성하기 위해 본 발명은, 사용자의 동작 및 음성을 감지하는 단계와; 상기 감지된 사용자의 동작 및 음성을 근거로 하여 상기 사용자의 행동패턴 정보를 생성하는 단계와; 상기 행동패턴 정보에 따라 상기 사용자의 행동을 예측하는 단계를 포함하는 이동단말기의 구동방법을 제공한다.In addition, to achieve the above object, the present invention comprises the steps of sensing a user's motion and voice; Generating behavior pattern information of the user based on the detected user's motion and voice; It provides a method of driving a mobile terminal comprising the step of predicting the user's behavior according to the behavior pattern information.

본 발명에 따른 이동단말기 및 이동단말기용 거치대의 효과에 대해 설명하면 다음과 같다.When explaining the effect of the mobile terminal and the cradle for a mobile terminal according to the present invention.

본 발명의 실시예들 중 적어도 하나에 의하면, 이동단말기 및 이동단말기용 거치대가 사용자의 동작이나 음성을 인식하고 반응하기 때문에 사용자는 이동단말기 및 이동단말기용 거치대에 직접 접촉하지 않은 상태에서도 제어할 수 있다. According to at least one of the embodiments of the present invention, since the mobile terminal and the mobile terminal cradle recognize and react to the user's motion or voice, the user can control the mobile terminal and the mobile terminal cradle even without direct contact. have.

또한, 이동단말기 및 이동단말기용 거치대가 사용자의 동작이나 음성을 근거로 사용자의 행동을 예측하고 그에 해당하는 동작을 수행하므로 사용자에게 다양한 편의를 제공할 수 있다.In addition, since the mobile terminal and the cradle for the mobile terminal predict the user's behavior based on the user's motion or voice and perform the corresponding motion, various conveniences can be provided to the user.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those skilled in the art from the following description. will be.

도 1은 본 발명에 따른 홈 로봇의 일 예를 나타낸 블록도이다.
도 2는 본 발명에 따른 이동단말기의 일 예를 나타낸 도면이다.
도 3의 본 발명에 따른 이동단말기용 거치대의 일 예를 나타낸 도면이다.
도 4a 및 4b는 이동단말기와 거치대가 결합된 홈 로봇을 나타낸 도면이다.
도 5a 내지 5c는 이동단말기 및 거치대를 이용한 감성표현의 예들을 나타낸 도면이다.
도 6은 본 발명에 따른 홈 로봇의 기능의 일 예를 나타낸 도면이다.
도 7은 본 발명에 따른 홈 로봇의 구동방법을 나타낸 순서도이다.
도 8은 행동패턴 정보 및 주변환경 정보의 일 예를 나타낸다.
도 9a 내지 9d는 사용자의 동작 및 음성에 따른 이동단말기의 동작의 예들을 나타낸 도면이다.
1 is a block diagram showing an example of a home robot according to the present invention.
2 is a view showing an example of a mobile terminal according to the present invention.
3 is a view showing an example of a cradle for a mobile terminal according to the present invention.
4A and 4B are views showing a home robot in which a mobile terminal and a cradle are combined.
5A to 5C are diagrams showing examples of emotional expression using a mobile terminal and a cradle.
6 is a view showing an example of the function of the home robot according to the present invention.
7 is a flow chart showing a method of driving a home robot according to the present invention.
8 shows an example of behavior pattern information and surrounding environment information.
9A to 9D are diagrams illustrating examples of the operation of a mobile terminal according to a user's operation and voice.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, exemplary embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar elements are assigned the same reference numbers regardless of the reference numerals, and overlapping descriptions thereof will be omitted. The suffixes "modules" and "parts" for components used in the following description are given or mixed only considering the ease of writing the specification, and do not have meanings or roles distinguished from each other in themselves. In addition, in the description of the embodiments disclosed herein, when it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed herein, detailed descriptions thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed in the specification is not limited by the accompanying drawings, and all modifications included in the spirit and technical scope of the present invention , It should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from other components.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When an element is said to be "connected" or "connected" to another component, it is understood that other components may be directly connected to or connected to the other component, but there may be other components in between. It should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that no other component exists in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly indicates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as “comprises” or “have” are intended to indicate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, and that one or more other features are present. It should be understood that the existence or addition possibilities of fields or numbers, steps, operations, components, parts or combinations thereof are not excluded in advance.

도 1은 본 발명에 따른 홈 로봇의 일 예를 설명하기 위한 도면이다. 도 1에 도시된 바와 같이, 본 발명의 홈 로봇은 이동 단말기(100), 이동단말기용 거치대(200)를 포함한다. 거치대(200)에 이동단말기(100)가 장착되면 고정형 로봇으로 사용될 수 있고, 이 고정형 로봇에 주행 플랫폼(270)을 결합하면 이동형 로봇으로 사용될 수 있다. 홈 로봇의 기능으로는 크게 정보 전달, 감성 전달, 펫기능, 사용자의 건강관리 등을 포함하며, 이러한 기능을 통해 사용자, 특히 독신자나 독거노인 등에게 편의를 제공하고 외로움을 해소하는 데에 기여할 수 있다. 또한, 이와 같은 홈 로봇에 청소 모듈이나 공기청정 모듈을 결합하여 사용자에게 필요한 기능을 제공하는 것이 가능하다. 1 is a view for explaining an example of a home robot according to the present invention. As shown in Figure 1, the home robot of the present invention includes a mobile terminal 100, a mobile terminal 200. When the mobile terminal 100 is mounted on the cradle 200, it can be used as a fixed robot, and when the traveling platform 270 is coupled to the fixed robot, it can be used as a mobile robot. The functions of the home robot largely include information transmission, emotional transmission, pet function, user's health management, etc., and through these functions, it can contribute to providing convenience to users, especially single and elderly people, and resolving loneliness. have. In addition, it is possible to provide a necessary function to a user by combining a cleaning module or an air cleaning module with such a home robot.

본 명세서에서 설명되는 이동 단말기(100)는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook) 중 어느 하나로 구성될 수 있다. 그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 카메라를 포함하는 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.The mobile terminal 100 described herein includes a mobile phone, a smart phone, a laptop computer, a terminal for digital broadcasting, a personal digital assistants (PDA), a portable multimedia player (PMP), navigation, a slate PC ( slate PC), a tablet PC (tablet PC), or an ultrabook (ultrabook). However, it will be readily appreciated by those skilled in the art that the configuration according to the embodiment described herein may be applied to a fixed terminal including a camera, except when applicable only to a mobile terminal.

도 2는 본 발명과 관련된 이동 단말기(100)의 일 예를 설명하기 위한 블록도이다.2 is a block diagram illustrating an example of a mobile terminal 100 related to the present invention.

이동 단말기(100)는 무선 통신부(110), 입력부(120), 감지부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 2에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. The mobile terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, and a power supply unit 190 And the like. The components shown in FIG. 2 are not essential for implementing a mobile terminal, so the mobile terminal described herein may have more or fewer components than those listed above.

보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 다른 이동 단말기(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.More specifically, among the above components, the wireless communication unit 110 moves between the mobile terminal 100 and the wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or different from the mobile terminal 100. The terminal 100, or an external server, may include one or more modules that enable wireless communication between networks.

이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The wireless communication unit 110 may include at least one of a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115. .

입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 may include a camera 121 for inputting a video signal or a video input unit, a microphone for inputting an audio signal (microphone 122), or an audio input unit, a user input unit 123 for receiving information from a user, for example , A touch key, a mechanical key, and the like. The voice data or image data collected by the input unit 120 may be analyzed and processed by a user's control command.

센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gage), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensing unit 140 may include one or more sensors for sensing at least one of information in the mobile terminal, surrounding environment information surrounding the mobile terminal, and user information. For example, the sensing unit 140 includes a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity G-sensor, gyroscope sensor, motion sensor, RGB sensor, infrared sensor (IR sensor), fingerprint scan sensor, ultrasonic sensor , Optical sensor (e.g. camera (see 121)), microphone (see 122), battery gage, environmental sensor (e.g. barometer, hygrometer, thermometer, radioactivity sensor, heat Detection sensors, gas detection sensors, etc.), chemical sensors (eg, electronic nose, health care sensors, biometric sensors, etc.), on the other hand, the mobile terminal disclosed herein, such sensors, these sensors Among them, information sensed by at least two or more sensors may be used in combination.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 이동 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 150 is for generating output related to vision, hearing, or tactile sense, and includes at least one of a display unit 151, an audio output unit 152, a hap tip module 153, and an optical output unit 154 can do. The display unit 151 may form a mutual layer structure with the touch sensor or may be integrally formed, thereby realizing a touch screen. The touch screen may function as a user input unit 123 that provides an input interface between the mobile terminal 100 and a user, and at the same time, provide an output interface between the mobile terminal 100 and the user.

인터페이스부(160)는 이동 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 이동 단말기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit 160 serves as a passage with various types of external devices connected to the mobile terminal 100. The interface unit 160 connects a device equipped with a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and an identification module. It may include at least one of a port, an audio input/output (I/O) port, a video input/output (I/O) port, and an earphone port. In the mobile terminal 100, in response to an external device being connected to the interface unit 160, appropriate control related to the connected external device may be performed.

메모리(170)는 이동 단말기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 다른 적어도 일부는, 이동 단말기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 이동 단말기(100) 상에 설치되어, 제어부(180)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.The memory 170 may store a number of application programs (application programs) driven in the mobile terminal 100, data for operating the mobile terminal 100, and instructions. At least some of these applications can be downloaded from external servers via wireless communication. In addition, at least some other of these application programs may exist on the mobile terminal 100 from the time of shipment for basic functions of the mobile terminal 100 (for example, an incoming call, a calling function, a message reception, and a calling function). . Meanwhile, the application program may be stored in the memory 170 and installed on the mobile terminal 100 to be driven by the controller 180 to perform an operation (or function) of the mobile terminal.

제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The controller 180 controls the overall operation of the mobile terminal 100 in addition to the operations related to the application program. The controller 180 may provide or process appropriate information or functions to the user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 170.

또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 2a의 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 이동 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.In addition, the controller 180 may control at least some of the components of FIG. 2A to drive the application program stored in the memory 170. Furthermore, the controller 180 may operate by combining at least two or more of the components included in the mobile terminal 100 to operate the application program.

전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 이동 단말기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.Under the control of the controller 180, the power supply unit 190 receives external power and internal power to supply power to each component included in the mobile terminal 100. The power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.

상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 단말기의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다. At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of a mobile terminal according to various embodiments described below. Also, the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 170.

이하에서는, 위에서 열거된 구성요소들에 대하여 도 2를 참조하여 보다 구체적으로 살펴본다.Hereinafter, the components listed above will be described in more detail with reference to FIG. 2.

먼저, 무선 통신부(110)에 대하여 살펴보면, 무선 통신부(110)의 방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 적어도 두 개의 방송 채널들에 대한 동시 방송 수신 또는 방송 채널 스위칭을 위해 둘 이상의 상기 방송 수신 모듈이 상기 이동단말기(100)에 제공될 수 있다.First, referring to the wireless communication unit 110, the broadcast reception module 111 of the wireless communication unit 110 receives a broadcast signal and/or broadcast-related information from an external broadcast management server through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. Two or more broadcast reception modules may be provided to the mobile terminal 100 for simultaneous broadcast reception or switching of broadcast channels for at least two broadcast channels.

이동통신 모듈(112)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), LTE(Long Term Evolution) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 112 includes technical standards or communication methods for mobile communication (eg, Global System for Mobile Communication (GSM), Code Division Multi Access (CDMA), Wideband CDMA (WCDMA), High Speed HSDPA) Downlink Packet Access (LTE, Long Term Evolution (LTE), etc.) transmits and receives wireless signals to and from at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call signal, or a text/multimedia message.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(113)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다. 무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), WiFi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), LTE(Long Term Evolution) 등이 있으며, 상기 무선 인터넷 모듈(113)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.The wireless Internet module 113 refers to a module for wireless Internet access, and may be built in or external to the mobile terminal 100. The wireless Internet module 113 is configured to transmit and receive wireless signals in a communication network according to wireless Internet technologies. Wireless Internet technologies include, for example, WLAN (Wireless LAN), WiFi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink) Packet Access), LTE (Long Term Evolution), and the like, and the wireless Internet module 113 transmits and receives data according to at least one wireless Internet technology in a range including Internet technologies not listed above.

근거리 통신 모듈(114)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈(114)은, 근거리 무선 개인 통신망(Wireless Personal Area Networks)을 통해 이동 단말기(100)와 거치대(200 사이, 이동 단말기(100)와 다른 이동 단말기 사이, 또는 이동 단말기(100)와 다른 이동 단말기(또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다.The short-range communication module 114 is for short-range communication, Bluetooth™, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, NFC (Near Field Communication), by using at least one of Wi-Fi (Wireless-Fidelity), Wi-Fi Direct technology, it can support short-range communication. The short-range communication module 114, between the mobile terminal 100 and the cradle 200, between the mobile terminal 100 and another mobile terminal, or the mobile terminal 100 through a wireless local area network (Wireless Personal Area Networks) And other mobile terminals (or external servers).

여기에서, 다른 이동 단말기는 본 발명에 따른 이동 단말기(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display))가 될 수 있다. 근거리 통신 모듈(114)은, 이동 단말기(100) 주변에, 상기 이동 단말기(100)와 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(180)는 상기 감지된 웨어러블 디바이스가 본 발명에 따른 이동 단말기(100)와 통신하도록 인증된 디바이스인 경우, 이동 단말기(100)에서 처리되는 데이터의 적어도 일부를, 상기 근거리 통신 모듈(114)을 통해 웨어러블 디바이스로 전송할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 이동 단말기(100)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다. 예를 들어, 이에 따르면 사용자는, 이동 단말기(100)에 전화가 수신된 경우, 웨어러블 디바이스를 통해 전화 통화를 수행하거나, 이동 단말기(100)에 메시지가 수신된 경우, 웨어러블 디바이스를 통해 상기 수신된 메시지를 확인하는 것이 가능하다.Here, another mobile terminal is a wearable device (for example, a smartwatch, smart glass, HMD) capable of exchanging data (or interoperable) with the mobile terminal 100 according to the present invention. (head mounted display)). The short-range communication module 114 may detect (or recognize) a wearable device capable of communicating with the mobile terminal 100 around the mobile terminal 100. Furthermore, when the detected wearable device is a device authenticated to communicate with the mobile terminal 100 according to the present invention, the controller 180 may include at least a part of data processed by the mobile terminal 100, and the short-range communication module ( 114) to the wearable device. Therefore, the user of the wearable device can use data processed by the mobile terminal 100 through the wearable device. For example, according to this, the user performs a phone call through the wearable device when a call is received by the mobile terminal 100 or, when a message is received by the mobile terminal 100, the received message through the wearable device It is possible to check the message.

위치정보 모듈(115)은 이동 단말기의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다. 예를 들어, 이동 단말기는 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 이동 단말기의 위치를 획득할 수 있다. 다른 예로서, 이동 단말기는 Wi-Fi모듈을 활용하면, Wi-Fi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 이동 단말기의 위치를 획득할 수 있다. The location information module 115 is a module for acquiring a location (or current location) of a mobile terminal, and typical examples thereof include a Global Positioning System (GPS) module or a Wireless Fidelity (WiFi) module. For example, if the mobile terminal utilizes a GPS module, the location of the mobile terminal can be obtained using a signal sent from a GPS satellite. As another example, when the mobile terminal utilizes the Wi-Fi module, the location of the mobile terminal may be obtained based on information of a Wi-Fi module and a wireless access point (AP) that transmits or receives a wireless signal.

다음으로, 입력부(120)에 대하여 보다 구체적으로 살펴보면, 입력부(120)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, 이동 단말기(100) 는 하나 또는 복수의 카메라(121)를 구비할 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다. 한편, 이동 단말기(100)에 구비되는 복수의 카메라(121)는 매트릭스 구조를 이루도록 배치될 수 있으며, 이와 같이 매트릭스 구조를 이루는 카메라(121)를 통하여, 이동 단말기(100)에는 다양한 각도 또는 초점을 갖는 복수의 영상정보가 입력될 수 있다. 또한, 복수의 카메라(121)는 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 스트레오 구조로 배치될 수 있다.Next, looking at the input unit 120 in more detail, the input unit 120 is for input of image information (or signals), audio information (or signals), or information input from a user, and inputs image information. To this end, the mobile terminal 100 may include one or a plurality of cameras 121. The camera 121 processes image frames such as still images or moving pictures obtained by an image sensor in a video call mode or a shooting mode. The processed image frame may be displayed on the display unit 151. Meanwhile, the plurality of cameras 121 provided in the mobile terminal 100 may be arranged to form a matrix structure, and through the camera 121 forming the matrix structure, various angles or focuses may be applied to the mobile terminal 100. A plurality of image information may be input. Also, the plurality of cameras 121 may be arranged in a stereo structure to acquire left and right images for realizing a stereoscopic image.

마이크로폰(122)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동 단말기(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 processes external sound signals as electrical voice data. The processed voice data may be used in various ways according to a function (or a running application program) being performed by the mobile terminal 100. Meanwhile, various noise cancellation algorithms for removing noise generated in the process of receiving an external sound signal may be implemented in the microphone 122.

사용자 입력부(123)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(123)를 통해 정보가 입력되면, 제어부(180)는 입력된 정보에 대응되도록 이동 단말기(100)의 동작을 제어할 수 있다. 이러한, 사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 이동 단말기(100)의 전·후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다. The user input unit 123 is for receiving information from a user. When information is input through the user input unit 123, the controller 180 may control the operation of the mobile terminal 100 to correspond to the input information. . The user input unit 123 is a mechanical input means (or a mechanical key, for example, a button located on the front, rear or side of the mobile terminal 100, a dome switch, a jog wheel, Jog switch, etc.) and a touch input means. As an example, the touch-type input means is made of a virtual key, a soft key or a visual key displayed on the touch screen through software processing, or a part other than the touch screen It may be made of a touch key (touch key) disposed on. Meanwhile, the virtual key or the visual key may be displayed on the touch screen while having various forms, for example, a graphic, text, icon, video, or the like. It can be made of a combination of.

한편, 센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(180)는 이러한 센싱 신호에 기초하여, 이동 단말기(100)의 구동 또는 동작을 제어하거나, 이동 단말기(100)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행 할 수 있다. 센싱부(140)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.Meanwhile, the sensing unit 140 senses at least one of information in the mobile terminal, surrounding environment information surrounding the mobile terminal, and user information, and generates a sensing signal corresponding thereto. The controller 180 may control driving or operation of the mobile terminal 100 based on the sensing signal, or perform data processing, function, or operation related to an application program installed in the mobile terminal 100. The representative sensors among various sensors that may be included in the sensing unit 140 will be described in more detail.

먼저, 근접 센서(141)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(141)는 위에서 살펴본 터치 스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. 근접 센서(141)는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.First, the proximity sensor 141 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object in the vicinity using mechanical force or infrared light without mechanical contact. The proximity sensor 141 may be provided with a proximity sensor 141 in an inner region of the mobile terminal wrapped by the touch screen described above or near the touch screen. The proximity sensor 141 has a longer lifespan and a higher utilization than the contact sensor.

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(151)는 이동 단말기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다. 또한, 상기 디스플레이부(151)는 입체영상을 표시하는 입체 디스플레이부로서 구성될 수 있다. 상기 입체 디스플레이부에는 스테레오스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다. The display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, the display unit 151 may display execution screen information of an application program driven by the mobile terminal 100, or user interface (UI) or graphical user interface (GUI) information according to the execution screen information. . In addition, the display unit 151 may be configured as a stereoscopic display unit for displaying a stereoscopic image. A three-dimensional display method such as a stereoscopic method (glasses method), an auto stereoscopic method (glasses-free method), or a projection method (holographic method) may be applied to the stereoscopic display unit.

음향 출력부(152)는 호신호수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력부(152)는 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력부(152)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The audio output unit 152 may output audio data received from the wireless communication unit 110 or stored in the memory 170 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, or the like. The sound output unit 152 may also output sound signals related to functions (for example, call signal reception sound, message reception sound, etc.) performed by the mobile terminal 100. The sound output unit 152 may include a receiver, a speaker, a buzzer, and the like.

햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅택 모듈(153)에서 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(153)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. 햅틱 모듈(153)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.The haptic module 153 generates various tactile effects that the user can feel. A typical example of the tactile effect generated by the haptic module 153 may be vibration. The intensity and pattern of vibration generated in the haptic module 153 may be controlled by a user's selection or setting of a control unit. For example, the haptic module 153 may synthesize different vibrations and output them sequentially or sequentially. In addition to vibration, the haptic module 153 is used for stimulation such as pin arrangement that vertically moves with respect to the contact skin surface, jet or suction power of air through a jet or intake, grazing on the skin surface, contact with an electrode, and electrostatic force. Various tactile effects can be generated, such as the effect caused by and the effect of reproducing the feeling of cold and warm using an element capable of absorbing heat or generating heat.

광출력부(154)는 이동 단말기(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기(100)에서 발생 되는 이벤트의 예로는 메세지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 어플리케이션을 통한 정보 수신 등이 될 수 있다. 광출력부(154)가 출력하는 신호는 이동 단말기가 전면이나 후면으로 단색이나 복수색의 빛을 발광함에 따라 구현된다. 상기 신호 출력은 이동 단말기가 사용자의 이벤트 확인을 감지함에 의하여 종료될 수 있다.The light output unit 154 outputs a signal for notifying the occurrence of an event using the light of the light source of the mobile terminal 100. Examples of events occurring in the mobile terminal 100 may include receiving messages, receiving call signals, missed calls, alarms, schedule notifications, receiving emails, and receiving information through applications. The signal output by the light output unit 154 is implemented as the mobile terminal emits light of a single color or a plurality of colors to the front or rear. The signal output may be terminated by the mobile terminal detecting the user's event confirmation.

인터페이스부(160)는 이동 단말기(100)에 연결되는 모든 외부 기기와의 통로 역할을 한다. 인터페이스부(160)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트(port), 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 등이 인터페이스부(160)에 포함될 수 있다.The interface unit 160 serves as a passage with all external devices connected to the mobile terminal 100. The interface unit 160 receives data from an external device, receives power, transfers it to each component inside the mobile terminal 100, or allows data inside the mobile terminal 100 to be transmitted to the external device. For example, a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, a port for connecting a device equipped with an identification module An interface unit 160 may include a (port), an audio input/output (I/O) port, a video input/output (I/O) port, and an earphone port.

메모리(170)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 특히, 메모리(170)는 웨어러블 단말기(300/400)에서 전송되는 영상, 음성, 소리 등의 데이터를 저장한다. 또한, 상기 메모리(170)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 170 may store a program for the operation of the controller 180 and may temporarily store input/output data (eg, a phone book, a message, a still image, a video, etc.). In particular, the memory 170 stores data such as video, voice, and sound transmitted from the wearable terminal 300/400. Further, the memory 170 may store data related to various patterns of vibration and sound output when a touch is input on the touch screen.

메모리(170)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(170)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.The memory 170 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory, etc.), RAM. (random access memory; RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), programmable read-only memory (PROM), magnetic memory, magnetic It may include a storage medium of at least one type of a disc and an optical disc. The mobile terminal 100 may be operated in connection with a web storage performing a storage function of the memory 170 on the Internet.

한편, 앞서 살펴본 것과 같이, 제어부(180)는 응용 프로그램과 관련된 동작과, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 예를 들어, 제어부(180)는 상기 이동 단말기의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 사용자의 제어 명령의 입력을 제한하는 잠금 상태를 실행하거나, 해제할 수 있다. Meanwhile, as described above, the controller 180 controls the operation related to the application program and the overall operation of the mobile terminal 100 in general. For example, if the state of the mobile terminal satisfies a set condition, the controller 180 may execute or release a lock state that limits the input of a user's control command to applications.

또한, 제어부(180)는 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행하거나, 터치 스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. 나아가 제어부(180)는 이하에서 설명되는 다양한 실시 예들을 본 발명에 따른 이동 단말기(100) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.In addition, the controller 180 performs control and processing related to voice calls, data communication, video calls, etc., or performs pattern recognition processing capable of recognizing handwriting input or picture drawing input performed on a touch screen as text and images, respectively. Can be. Furthermore, in order to implement various embodiments described below on the mobile terminal 100 according to the present invention, the controller 180 may control any one or a combination of the above-described components.

한편, 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다. Meanwhile, various embodiments below may be implemented in a recording medium readable by a computer or a similar device using, for example, software, hardware, or a combination thereof.

도 3은 본 발명과 관련된 이동단말기용 거치대(200)의 일 예를 설명하기 위한 블록도이다.3 is a block diagram illustrating an example of a cradle 200 for a mobile terminal related to the present invention.

본 발명의 이동단말기용 거치대(200)는 거치부(210), 구동부(220), 제어부(230), 디스플레이부(240), 센서부(250)를 포함한다. 도 3에 도시된 구성요소들은 거치대를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 거치대는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. The cradle 200 for a mobile terminal of the present invention includes a cradle 210, a driver 220, a controller 230, a display 240, and a sensor 250. The components shown in FIG. 3 are not essential to the implementation of the cradle, so the cradle described herein may have more or fewer components than those listed above.

상기 거치부(210)는 이동단말기(10)를 거치하기 위한 거치암과 이동단말기(100)를 충전하기 위한 충전단자(미도시)를 포함할 수 있다. 상기 거치부(210)의 충전단자는 이동단말기(100)의 충전포트와 호환되어야 하므로, 상기 거치부(210)의 충전단자의 위치는 사용하고자 하는 이동단말기(100)의 충전포트의 위치에 따라 달라질 수 있다. 예를 들어, 이동단말기(100)의 충전포트가 하면에 위치한다면, 상기 거치부(210)의 충전단자는 상기 거치부(210)의 하면에 위치하도록 구성될 수 있다. 또한, 충전단자가 케이블을 이용하여 이동단말기(100)의 충전포트와 연결되는 경우, 충전단자는 상기 거치부(210)의 측면, 후면 또는 상면에 위치하도록 구성될 수 있다. 또한, 상기 거치부(210)의 충전단자는 이동단말기(100)와 이동단말기용 거치대(200)의 간의 통신을 위해 사용된다. The mounting unit 210 may include a mounting arm for mounting the mobile terminal 10 and a charging terminal (not shown) for charging the mobile terminal 100. Since the charging terminal of the mounting portion 210 must be compatible with the charging port of the mobile terminal 100, the position of the charging terminal of the mounting portion 210 depends on the location of the charging port of the mobile terminal 100 to be used. It may vary. For example, if the charging port of the mobile terminal 100 is located on the lower surface, the charging terminal of the mounting portion 210 may be configured to be located on the lower surface of the mounting portion 210. In addition, when the charging terminal is connected to the charging port of the mobile terminal 100 using a cable, the charging terminal may be configured to be located on the side, rear or top surface of the mounting portion 210. In addition, the charging terminal of the mounting unit 210 is used for communication between the mobile terminal 100 and the mobile terminal 200.

상기 구동부(220)는 상기 거치부(210)를 여섯 방향으로 움직일 수 있도록 동력을 제공하는 하나 이상의 모터를 포함한다. 상기 구동부(220)는 상기 거치부(210)에 앞뒤 기울임(tilt), 360도 좌우회전(pan), 상하회전(portrait/landscape)을 제공하도록 구성된다.The driving unit 220 includes one or more motors that provide power to move the mounting unit 210 in six directions. The driving unit 220 is configured to provide tilt and tilt, a 360-degree left-right rotation (pan), and a vertical/portrait (portrait/landscape) to the mounting portion 210.

상기 디스플레이부(240)는 알림 기능 및 조명 기능을 제공하기 위한 LED 전구들을 포함하도록 구성되며, 이동단말기(100)가 거치된 상태에서도 사용자가 볼 수 있도록 상기 거치부(210)의 전면에 위치하는 것이 바람직하다. 일 예로서, 상기 디스플레이부(240)는 거치암에 위치하도록 구성될 수 있다.The display unit 240 is configured to include LED bulbs for providing a notification function and a lighting function, and is located in front of the mounting unit 210 so that the user can see the mobile terminal 100 even when mounted. It is preferred. As an example, the display unit 240 may be configured to be positioned on the holder arm.

상기 센서부(250)는 사용자의 동작을 감지하기 위한 적외선 근접센서(미도시)와 사용자의 음성 및 주변 소리를 감지할 수 있는 음원인식 센서(미도시)를 포함한다. 일 예로서, 센서부(250)는 상기 거치부(210)의 하단에 위치하도록 구성될 수 있다. 또한, 상기 센서부(250)는 사용자의 동작 또는 음성을 근거로 사용자의 위치를 감지할 수 있고 음악과 같은 주변소리의 위치도 감지할 수 있다. The sensor unit 250 includes an infrared proximity sensor (not shown) for detecting a user's motion, and a sound source recognition sensor (not shown) capable of detecting a user's voice and surrounding sounds. As an example, the sensor unit 250 may be configured to be positioned at the bottom of the mounting unit 210. In addition, the sensor unit 250 may detect the user's location based on the user's motion or voice, and may also detect the location of ambient sounds such as music.

상기 제어부(230)는 감지된 사용자의 동작 및 음성 중 적어도 하나에 따라 상기 거치부(210)의 동작을 제어한다. 예를 들어, 상기 제어부(230)는 사용자의 동작 또는 음성이 감지된 위치를 향해 이동단말기(100)의 전면이 향하도록 상기 거치부(210)를 회전 또는 이동시킨다. 이처럼, 상기 제어부(230)는 상기 센서부(250)에 의해 감지된 사용자의 동작 또는 음성에 따라 직접 상기 거치부(210)의 동작을 제어하는 것이 가능하나, 이동단말기(100)의 제어신호에 따라 상기 거치부(210)의 동작을 제어한다. 또한, 상기 제어부(230)는 이동단말기(100)의 상태 변화에 따라 제공되는 제어신호에 따라 상기 거치부(210)의 동작을 제어할 수 있다.The control unit 230 controls the operation of the mounting unit 210 according to at least one of the detected user's operation and voice. For example, the control unit 230 rotates or moves the mounting unit 210 so that the front of the mobile terminal 100 faces toward a position where a user's motion or voice is sensed. As described above, the control unit 230 can directly control the operation of the mounting unit 210 according to the user's motion or voice sensed by the sensor unit 250, but the control signal of the mobile terminal 100 is Accordingly, the operation of the mounting unit 210 is controlled. In addition, the control unit 230 may control the operation of the mounting unit 210 according to a control signal provided according to a change in state of the mobile terminal 100.

도 4a 및 4b에서와 같이, 이동단말기(100)는 거치대(200)에 탈부착이 가능하며, 거치대(200)는 주행 플랫폼(270)과 결합될 수 있다. 이동단말기(100)는 거치대(200)와 주행 플랫폼(270)을 각각 제어할 수 있다. 또한, 주행 플랫폼(270)은 청소 모듈이나 공기청정 모듈이 결합될 수 있도록 구성된다.As shown in Figures 4a and 4b, the mobile terminal 100 is detachable to the cradle 200, the cradle 200 may be combined with the driving platform (270). The mobile terminal 100 may control the cradle 200 and the driving platform 270, respectively. In addition, the driving platform 270 is configured such that a cleaning module or an air cleaning module can be combined.

도 5a 내지 도 5c는 이동단말기(100) 및 거치대(200)의 감성표현의 예들을 나타낸 도면이다. 도 5a에서와 같이, 제어부(180)는 사용자가 부르면 이동단말기(100)는 전면이 사용자를 향하도록 거치대(200)를 제어하는데, 이때 사용자의 얼굴을 인식하여 이동단말기(100)의 디스플레이부(151)에 표시되는 캐릭터/아바타의 시선이 사용자의 얼굴을 향하도록 거치대(200)의 움직임을 제어한다. 또한, 제어부(180)는 이동단말기(100)는 대기(stand by) 상태에서 활성화(wake) 상태로 전환될 때, 표시되는 캐릭터/아바타의 눈동자 등을 변화시킨다. 또한, 제어부(180)는 사용자의 음성에 반응하여 이동단말기(100)를 앞뒤 또는 좌우로 흔들도록 거치대(200)를 제어할 수 있다.5A to 5C are diagrams illustrating examples of emotional expression of the mobile terminal 100 and the cradle 200. As shown in FIG. 5A, when the user calls, the controller 180 controls the cradle 200 such that the front faces the user. At this time, the display unit of the mobile terminal 100 is recognized by recognizing the user's face. 151), the movement of the cradle 200 is controlled such that the character/avatar's gaze is displayed toward the user's face. In addition, when the mobile terminal 100 is switched from the stand by state to the wake state, the controller 180 changes the displayed character/avatar's pupil, and the like. In addition, the controller 180 may control the cradle 200 to shake the mobile terminal 100 back and forth or left and right in response to the user's voice.

도 5b에서와 같이, 제어부(180)는 이동단말기(100)의 배터리 상태를 나타내기 위해 배터리의 충전량을 배경화면으로 표시하거나 이동단말기(100)가 움직일 때마다 물처럼 출렁임을 표현하도록 디스플레이부(151)를 제어할 수 있으며, 이와 함께 이동단말기(100)를 앞뒤 또는 좌우로 흔들도록 거치대(200)를 제어할 수 있다. 또한, 제어부(180)는 이동단말기(100)의 상태변화, 예를 들어 메시지/이메일 수신, 통신 상태, 충전 상태 등의 변화를 표현하도록 이동단말기(100) 및 거치대(200)의 동작을 제어한다. 또한, 제어부(180)는 실내온도를 알리거나 장애물을 경고하도록 이동단말기(100) 및 거치대(200)의 동작을 제어할 수 있다.As shown in FIG. 5B, the controller 180 displays a charge amount of the battery as a background screen to indicate the battery state of the mobile terminal 100, or displays the mobile device 100 to express the swelling like water whenever the mobile terminal 100 moves. 151) can be controlled, and with this, the cradle 200 can be controlled to shake the mobile terminal 100 back and forth or from side to side. In addition, the controller 180 controls the operation of the mobile terminal 100 and the cradle 200 to express changes in the state of the mobile terminal 100, for example, message/email reception, communication status, charging status, and the like. . In addition, the controller 180 may control the operation of the mobile terminal 100 and the cradle 200 to inform the indoor temperature or warn of an obstacle.

도 5c에서와 같이, 제어부(180)는 사용자의 동작이나 음성에 반응하여 이동단말기(100) 및 거치대(200)를 제어한다. 예를 들어, 사용자가 입술에 손가락을 대고 '쉿'이라고 하면, 제어부(180)는 이동단말기(100) 및 거치대(200)가 소리를 내지않고 움직이지 않도록 제어한다.As shown in FIG. 5C, the controller 180 controls the mobile terminal 100 and the cradle 200 in response to a user's motion or voice. For example, if the user puts a finger on the lips and says'쉿', the controller 180 controls the mobile terminal 100 and the cradle 200 not to move without making a sound.

위와 같이, 이동단말기(100)는 감정을 표현하는 기능 외에도 도 6에서와 같이 사용자와 채팅할 수 있는 채팅 어플리케이션을 제공한다. 예를 들어, 제어부(180)는 사용자의 다른 이동단말기(300)를 통해서 명령을 받고 수행한다. 특히, 채팅 어플리케이션(Robot talk)은 이동단말기(100)에 내장된 센서부(140) 및 입력부(120)를 이용하여 사용자의 생활 습관 및 패턴 등을 감지하고, 주기적으로 서버나 이동단말기(100)에 저장한다. 그리고, 사용자의 생활 습관 및 패턴에 따라 사용자의 행동을 예측한다.As described above, the mobile terminal 100 provides a chat application capable of chatting with a user as shown in FIG. 6 in addition to a function of expressing emotion. For example, the controller 180 receives and executes a command through another user's mobile terminal 300. In particular, the chat application (Robot talk) detects the user's lifestyle and patterns using the sensor unit 140 and the input unit 120 built in the mobile terminal 100, and periodically performs a server or mobile terminal 100. To save. In addition, the user's behavior is predicted according to the user's lifestyle and patterns.

이하에서, 본 발명의 이동단말기(100) 및 이동단말기용 거치대(200)에서 구현될 수 있는 제어 방법과 관련된 실시예들에 대해 첨부된 도면을 참조하여 살펴보겠다. 도 7은 본 발명에 따른 제어방법의 일 예를 나타낸 순서도이다. Hereinafter, with reference to the accompanying drawings for embodiments related to the control method that can be implemented in the mobile terminal 100 and the cradle 200 for the mobile terminal of the present invention. 7 is a flow chart showing an example of a control method according to the present invention.

거치대(200)에 이동단말기(100)가 거치되면, 이동단말기(100)내의 애플리케이션이 실행되며 이 애플리케이션에 의해 이동단말기(100)가 제어된다. 애플리케이션에 의해 실행 및 제어되는 동작들은 제어부(180)에 의해 구현되는데, 먼저 제어부(180)는 다양한 표정의 캐릭터를 디스플레이부(151)의 화면상에 나타낼 수 있도록 이동단말기(100)를 제어한다. When the mobile terminal 100 is mounted on the cradle 200, the application in the mobile terminal 100 is executed and the mobile terminal 100 is controlled by the application. The operations executed and controlled by the application are implemented by the controller 180. First, the controller 180 controls the mobile terminal 100 to display characters of various expressions on the screen of the display unit 151.

이어, 제어부(180)는 사용자의 동작 및 음성 중 적어도 하나를 감지하기 위해 카메라(121) 및 마이크(122)를 제어하고(S71), 사용자의 동작이나 음성을 이용하여 사용자를 식별하고 사용자의 위치를 감지한다. 이때, 상기 제어부(180)는 사용자를 식별하기 위해 상기 카메라(121)를 통해 촬영되는 영상 또는 상기 마이크(122)를 통해 감지된 음성을 상기 메모리(170)에 저장된 사용자 정보와 비교하고, 이 비교 결과를 근거로 사용자를 식별한다. Subsequently, the controller 180 controls the camera 121 and the microphone 122 to detect at least one of the user's motion and voice (S71), identifies the user using the user's motion or voice, and locates the user. Detects. At this time, the controller 180 compares the image captured through the camera 121 or the voice detected through the microphone 122 with the user information stored in the memory 170 to identify the user, and compares this Users are identified based on the results.

또한, 제어부(180)는 지속적으로 감지되는 사용자의 동작 및 음성을 근거로 사용자의 행동패턴에 대한 정보를 생성하고 메모리(170)에 저장한다(S72). 여기서, 사용자의 행동패턴 정보는 가전기기 사용 이력에 대한 정보, 사용자의 일정 및 취침/기상시간 등을 포함한다. 또한, 제어부(180)는 날씨, 교통상황, 실내/실외 온도 등 사용자의 주변환경에 대한 정보를 메모리(170)에 저장한다. 도 8은 메모리(170)에 저장된 행동패턴 정보 및 주변환경 정보의 일 예를 나타낸다.In addition, the controller 180 generates information on the user's behavior pattern based on the user's continuously sensed motion and voice and stores it in the memory 170 (S72). Here, the user's behavior pattern information includes information on the household appliance use history, the user's schedule, and bed/wake time. In addition, the controller 180 stores information about the user's surrounding environment, such as weather, traffic conditions, indoor/outdoor temperatures, in the memory 170. 8 shows an example of behavior pattern information and surrounding environment information stored in the memory 170.

그리고, 제어부(180)는 행동패턴 정보와 함께 주변환경 정보를 이용하여 사용자의 행동을 예측한다(S73). 예를 들어, 제어부(180)는 사용자의 가전기기 사용 이력에 대한 정보를 근거로 하여 사용자의 가전기기 사용 일정을 예측하는데, 이때, 사용빈도를 기준으로 요일별 및 시간별로 각 가전기기를 사용할 확률을 계산하고, 가장 높은 확률의 가전기기를 사용자가 사용할 거라고 예측할 수 있다. TV의 경우, 사용자가 정기적으로 시청했던 채널/프로그램에 대한 정보를 근거로 사용자가 시청할 채널/프로그램도 예측할 수 있다. Then, the controller 180 predicts the user's behavior using the environment information along with the behavior pattern information (S73). For example, the controller 180 predicts a user's home appliance use schedule based on information on the user's home appliance use history, wherein the probability of using each home appliance by day and time based on the frequency of use is determined. Calculate and predict that the user will use the highest probability of home appliances. In the case of a TV, a channel/program to be watched by the user may be predicted based on information on the channel/program that the user has regularly watched.

또한, 제어부(180)는 예측된 사용자 행동에 대응하는 서비스를 제공하도록 이동단말기(100) 및 거치대(200)를 제어한다(S74). 예를 들어, 제어부(180)는 사용자에게 가전기기의 사용을 안내하기 위한 신호 및 정보를 제공하도록 출력부(150)를 제어한다. TV의 경우, 사용자에게 채널/프로그램과 같은 세부적인 사항도 제안할 수 있다. In addition, the controller 180 controls the mobile terminal 100 and the cradle 200 to provide a service corresponding to the predicted user behavior (S74). For example, the controller 180 controls the output unit 150 to provide a signal and information for guiding the user to use the home appliance. In the case of a TV, details such as channels/programs can also be suggested to the user.

또한, 제어부(180)는 이동단말기(100)의 통신 상태, 충전 상태, 메시지/이메일 수신 상태 등의 변화에 따라 이동단말기(100) 및 거치대(200)의 동작을 제어한다. 예를 들어, 전화가 수신되는 경우, 상기 제어부(180)는 이동단말기(100)의 화면상에 사진이나 지정된 캐릭터를 표시하고 사용자에게 이동단말기(100)의 화면을 보여주기 위해 이동단말기(100)의 전면이 사용자의 얼굴을 향하도록 상기 거치부(210)를 제어한다. 이로 인해, 사용자는 소리나 진동이 아닌 눈으로 전화 수신을 확인할 수 있다. In addition, the controller 180 controls the operation of the mobile terminal 100 and the cradle 200 according to changes in the communication status, charging status, message/email reception status, etc. of the mobile terminal 100. For example, when a phone call is received, the control unit 180 displays the picture or a designated character on the screen of the mobile terminal 100 and shows the screen of the mobile terminal 100 to the user. The mounting portion 210 is controlled so that the front surface of the user faces the user. Due to this, the user can confirm the call reception with eyes, not sound or vibration.

도 9a 내지 9d는 사용자의 동작 및 음성에 반응하여 제공되는 이동단말기(100)의 서비스의 예들을 나타낸다. 이를 위해, 제어부(180)는 감지된 사용자의 동작 및 음성 중 적어도 하나에 따라 이동단말기(100)와 거치대(200)의 동작을 제어한다. 도 9a에서와 같이, 사용자의 퇴근시, 제어부(180)는 사용자를 인식하고 사용자를 향해 이동단말기(100)의 전면이 향하도록 상기 거치부(210)를 제어한다. 그리고, "오늘 빨리 오셨네요! 혼자서 심심했어요" 등의 음성메시지를 출력하도록 출력부(150)를 제어한다. 도 9b에서와 같이, 제어부(180)는 사용자를 따라다니도록 거치대(200)를 제어하고, TV 프로그램을 제안한다. 도 9c에서와 같이, 제어부(180)는 사용자가 잠들면 이동단말기(100)와 주행 플랫폼(270)을 충전용 데크(deck)나 무선충전기를 통해 충전할 수 있다. 또한, 도 9d에서와 같이 제어부(180)는 사용자의 소지품이나 필요물품 등을 인식하고 그 위치를 알려줄 수 있다. 특히 자주 잃어버리는 물건을 입력해두면, 제어부(180)는 해당 물건의 위치를 항상 확인하고 필요시에 사용자에게 알려줄 수 있다.9A to 9D show examples of services of the mobile terminal 100 provided in response to a user's operation and voice. To this end, the controller 180 controls the operation of the mobile terminal 100 and the cradle 200 according to at least one of the detected user's motion and voice. 9A, when the user leaves the office, the controller 180 recognizes the user and controls the mounting unit 210 such that the front of the mobile terminal 100 faces toward the user. And, it controls the output unit 150 to output a voice message such as "You are here today! Bored alone". 9B, the controller 180 controls the cradle 200 to follow the user and proposes a TV program. 9C, the controller 180 may charge the mobile terminal 100 and the driving platform 270 through a charging deck or a wireless charger when the user falls asleep. In addition, as shown in FIG. 9D, the controller 180 can recognize the user's belongings or necessary items and inform the location thereof. In particular, if an object that is frequently lost is input, the controller 180 can always check the location of the object and notify the user when necessary.

이처럼, 이동단말기(100) 및 거치대(200)를 이용한 홈 로봇은 사용자를 따라다니면서 정보를 제공할 수 있으며, 행동패턴 정보를 기반으로 운동시간, 식사시간, 약 복용시간 등을 안내/권유할 수 있다. 뿐만 아니라, 사용자의 건강상태를 카메라(121)나 센싱부(140)를 통해 감지하고, 위급 시에는 응급센터나 의료진을 호출하도록 구성될 수 있다.In this way, the home robot using the mobile terminal 100 and the cradle 200 can provide information while following the user, and can guide/recommend exercise time, meal time, and medicine taking time based on the behavior pattern information. have. In addition, it can be configured to detect the user's health through the camera 121 or the sensing unit 140, and to call an emergency center or medical staff in an emergency.

또한, 사용자가 전화를 받기 싫거나 곤란한 경우 사용자가 좌우방향으로 움직이는 손동작을 하게 되면, 상기 제어부(180)는 이동단말기(100)의 화면이 돌아가도록 상기 거치부(210)를 제어한다. 이때, 상기 제어부(180)는 상기 메모리(170)에 저장된 정보를 근거로 사용자의 손동작을 해석하고 해당하는 명령을 수행하도록 상기 거치부(210)를 제어한다.In addition, if the user does not want to answer the phone or is in trouble, when the user makes a hand gesture moving in the left and right directions, the controller 180 controls the mounting unit 210 so that the screen of the mobile terminal 100 returns. At this time, the control unit 180 controls the mounting unit 210 to interpret a user's hand gesture based on information stored in the memory 170 and perform a corresponding command.

또한, 문자나 이메일을 수신하거나 채팅, 소셜네트워크 서비스 등이 활성화되면, 상기 제어부(180)는 이동단말기(100)의 화면상에 지정된 캐릭터 표정을 표시하거나 이동단말기(100)의 움직임을 통해 사용자에게 알려주고 디스플레이부(151)가 사용자의 얼굴을 향하도록 상기 거치부(210)를 제어한다. 이때, 사용자가 지정된 전화번호나 이메일 주소를 통해 전송된 메시지만 선택적으로 알려줄 수 있으며, 전송된 메시지의 유형에 따라 아이콘이나 스티커를 설정하는 것이 가능하다. 또한, 상기 제어부(180)는 메시지 내용 중 특정 어구나 단어를 인식하고 이에 해당하는 캐릭터를 이동단말기(100)의 화면에 표시하거나 또는 지정된 움직임에 따라 상기 거치부(210)의 움직임을 제어한다. In addition, when a text or email is received, a chat, a social network service, or the like is activated, the controller 180 displays a specified character expression on the screen of the mobile terminal 100 or through the movement of the mobile terminal 100 to the user. Inform and control the mounting unit 210 so that the display unit 151 faces the user's face. At this time, the user can selectively notify only the message transmitted through the designated phone number or email address, and it is possible to set an icon or sticker according to the type of the transmitted message. In addition, the controller 180 recognizes a specific phrase or word in the message content and displays the corresponding character on the screen of the mobile terminal 100 or controls the movement of the mounting unit 210 according to the specified movement.

본 발명의 홈 로봇, 즉 이동단말기(100)는 감성엔진을 포함하는데, 이 감성엔진은 욕구, 감정, 성장/성격형성으로 구성된다. 욕구는 외부자극(터치, 대화, 충격, 소리)과 주변환경에 따라 욕구의 만족도가 변화하는데, 로봇의 즉각적인 반응인 감정과 롱텀(Long-term) 반응인 성격을 변화시키는 기준이 된다. 예를 들어, 로봇을 일정시간 혼자 두면 "애정욕" 수치가 낮아져 "슬픔"의 감정 상태가 되고, 사용자가 로봇을 쓰다듬어 주면 "애정욕' 수치가 높아져 "기쁨"의 감정 상태가 된다. 또한, 로봇의 욕구는 애정욕외에 탐색욕, 운동욕, 휴식욕, 자기보호욕 등을 더 포함한다. 로봇의 감정은 욕구 만족도에 따라 변화한다. 예를 들어, 사용자가 로봇을 거칠게 다루면, 로봇은 "성냄"의 감정 상태가 된다. 또한, 로봇의 성장/성격형성은 외부자극과 주변환경의 변화에 따라 달라진다. 즉, 본 발명의 로봇은 외부자극과 주변환경에 따라 욕구의 만족도가 달라지는데, 이 욕구 만족도에 따라 즉각적인 감정 변화를 보이고 감정 변화로 인해 행동양식이 변화하게 된다. 그리고, 이 행동양식의 변화로 인해 성격이 변화하고 성장하게 된다. 이처럼, 본 발명의 로봇은 스스로 학습을 통해 변화할 수 있음을 알 수 있다. The home robot of the present invention, that is, the mobile terminal 100 includes an emotional engine, which is composed of desire, emotion, and growth/personality formation. Needs vary according to the external stimulus (touch, conversation, shock, sound) and surrounding environment, which are the criteria for changing the robot's immediate emotion and long-term personality. For example, if the robot is left alone for a certain period of time, the “affection” level is lowered to become an emotional state of “sadness”, and when the user strokes the robot, the “affection” value is increased to become an emotional state of “joy”. In addition to affection, the robot's desires include search, exercise, relaxation, and self-protection. The emotions of the robot change according to the satisfaction of the needs. For example, if a user handles a robot roughly, the robot " It is an emotional state of "smell." In addition, the growth/personality of the robot depends on changes in the external stimulus and the surrounding environment. That is, the robot of the present invention has a different satisfaction from the needs depending on the external stimulus and the surrounding environment. According to the satisfaction level, an immediate emotional change is seen, and the behavioral pattern changes due to the emotional change, and the personality changes and grows due to the change in the behavioral pattern. You can see that there is.

또한, 본 발명의 홈 로봇, 즉 이동단말기(100)는 행동양식 엔진을 포함하는데, 이 행동양식 엔진은 표현, 훈련, 적응으로 구성된다. 표현은 감정과 상황에 따라 해당하는 표정과 움직임을 의미한다. 도 5a 내지 5c는 이 표현들의 예를 보인다. 훈련은 로봇이 사용자의 음성명령을 특정 동작으로 매핑(mapping)하는 과정을 의미한다. 이는 사용자의 명령과 보상에 따라 그 능력이 상승할 수 있다. 예를 들어, 로봇이 사용자의 명령을 수행했을 때 사용자가 보상(예를 들어, 쓰다듬기)을 해주면 로봇의 수행 능력은 향상하게 된다. 적응은 로봇이 사용자의 행동패턴을 인식하여 그에 맞는 동작을 수행하는 것을 의미한다. 예를 들어, 사용자가 아침마다 인사(예를 들어, "굿모닝")를 해주면, 로봇은 그 시간을 기상시간으로 인식하고 먼저 사용자에게 아침인사 음성메시지를 출력한다. 이처럼, 본 발명의 로봇은 사용자의 훈련을 통해 변화할 수 있음을 알 수 있다. In addition, the home robot of the present invention, that is, the mobile terminal 100 includes a behavioral style engine, which consists of expression, training, and adaptation. Expression means the expression and movement corresponding to emotion and situation. 5A-5C show examples of these expressions. Training refers to a process in which a robot maps a user's voice command to a specific action. This ability can be increased according to the user's command and reward. For example, if the user compensates (for example, stroking) when the robot executes a user's command, the robot's performance is improved. Adaptation means that the robot recognizes the user's behavior pattern and performs an appropriate action. For example, if the user greets each morning (for example, "good morning"), the robot recognizes the time as a wake-up time and first outputs a morning greeting voice message to the user. As such, it can be seen that the robot of the present invention can be changed through user training.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. It will be apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit and essential features of the present invention.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다.The above-described present invention can be embodied as computer readable codes on a medium on which a program is recorded. The computer-readable medium includes all kinds of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include ROM, RAM, CD-ROM, magnetic tapes, floppy disks, optical data storage devices, etc., which are also implemented in the form of carrier waves (eg, transmission over the Internet). Also includes. In addition, the computer may include a control unit 180 of the terminal.

따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.Accordingly, the above detailed description should not be construed as limiting in all respects, but should be considered illustrative. The scope of the invention should be determined by rational interpretation of the appended claims, and all changes within the equivalent scope of the invention are included in the scope of the invention.

100: 이동 단말기 110: 무선통신부
120: 입력부 140: 센싱부
150: 출력부 160: 인터페이스부
170: 메모리 180: 제어부
190: 전원공급부 200: 이동단말기용 거치대
210: 거치부 220: 구동부
230: 제어부 240: 디스플레이부
250: 센서부 270: 주행 플랫폼
100: mobile terminal 110: wireless communication unit
120: input unit 140: sensing unit
150: output unit 160: interface unit
170: memory 180: control unit
190: power supply 200: mobile terminal cradle
210: mounting unit 220: driving unit
230: control unit 240: display unit
250: sensor unit 270: driving platform

Claims (10)

신호 및 정보를 출력하는 출력부와;
사용자의 동작 및 음성을 감지하는 입력부와;
상기 감지된 사용자의 동작 및 음성을 근거로 하여 상기 사용자의 행동패턴 정보를 생성하고, 상기 행동패턴 정보에 따라 상기 사용자의 행동을 예측하는 제어부를 포함하며,
상기 행동패턴 정보는,
상기 사용자의 외부 가전기기 사용 이력에 대한 정보를 포함하고,
상기 제어부는,
상기 사용자의 외부 가전기기 사용 이력에 대한 정보를 근거로 하여 상기 사용자의 외부 가전기기 사용 일정을 예측하고, 상기 사용자에게 외부 가전기기의 사용을 안내하기 위한 신호 및 정보 중 적어도 하나를 출력하도록 상기 출력부를 제어하는 것을 특징으로 하는 이동단말기.
An output unit for outputting signals and information;
An input unit for sensing a user's motion and voice;
And a control unit generating the behavior pattern information of the user based on the detected user's motion and voice, and predicting the user's behavior according to the behavior pattern information,
The behavior pattern information,
It includes information about the user's history of using external home appliances,
The control unit,
The output to predict the user's schedule of using the external home appliance based on information on the user's history of using the external home appliance, and output at least one of signals and information to guide the user to use the external home appliance. Mobile terminal characterized in that to control the wealth.
삭제delete 삭제delete 제 1 항에 있어서,
상기 제어부는,
상기 사용자의 동작 또는 음성이 감지된 위치를 향해 이동단말기의 전면이 향하도록 이동단말기용 거치대를 제어하는 것을 특징으로 하는 이동단말기.
According to claim 1,
The control unit,
The mobile terminal, characterized in that for controlling the mobile terminal cradle so that the front of the mobile terminal toward the position where the user's motion or voice is detected.
제 1 항에 있어서,
상기 제어부는,
이동단말기의 상태 변화에 따라 이동단말기용 거치대의 동작을 제어하는 것을 특징으로 하는 이동단말기.
According to claim 1,
The control unit,
A mobile terminal, characterized in that for controlling the operation of the mobile terminal cradle according to the change in the state of the mobile terminal.
제 5 항에 있어서,
상기 제어부는,
통신 상태, 충전 상태, 메시지 수신 상태 중 적어도 하나의 변화에 따라 상기 이동단말기용 거치대의 동작을 제어하는 것을 특징으로 하는 이동단말기.
The method of claim 5,
The control unit,
And controlling the operation of the cradle for the mobile terminal according to at least one of a communication state, a charging state, and a message receiving state.
제 1 항에 있어서,
상기 제어부는,
상기 행동패턴 정보와 함께 주변환경 정보를 이용하여 상기 사용자의 행동을 예측하고, 상기 예측된 행동을 안내하기 위한 신호 및 정보 중 적어도 하나를 출력하도록 상기 출력부를 제어하는 것을 특징으로 하는 이동단말기.
According to claim 1,
The control unit,
A mobile terminal characterized by predicting the user's behavior using the environment information along with the behavior pattern information, and controlling the output unit to output at least one of signals and information for guiding the predicted behavior.
이동단말기가 이동단말기용 거치대에 거치되면 이동단말기 제어용 어플리케이션이 실행되는 단계;
사용자의 동작 및 음성을 감지하는 단계;
상기 감지된 사용자의 동작 및 음성을 근거로 하여 상기 사용자의 행동패턴 정보를 생성하는 단계;
상기 사용자의 주변환경 정보를 수집하는 단계;
상기 행동패턴 정보 및 주변환경 정보에 따라 상기 사용자의 행동을 예측하는 단계; 및
예측된 사용자 행동에 대응하는 서비스를 제공하는 단계를 포함하며,
상기 주변환경 정보에는,
사용자 주변환경의 날씨, 교통상황, 실내 온도 중 적어도 하나 이상을 포함하는 것을 특징으로 하는 이동단말기의 구동방법.
When the mobile terminal is mounted on the cradle for the mobile terminal, the step of executing the mobile terminal control application;
Detecting a user's motion and voice;
Generating behavior pattern information of the user based on the detected user's motion and voice;
Collecting the environment information of the user;
Predicting the user's behavior according to the behavior pattern information and surrounding environment information; And
Providing a service corresponding to the predicted user behavior,
The surrounding environment information,
A driving method of a mobile terminal, characterized in that it includes at least one of weather, traffic conditions, and indoor temperature of the user's surrounding environment.
제 8 항에 있어서,
상기 행동패턴 정보에 포함된 가전기기 사용 이력에 대한 정보를 근거로 하여 상기 사용자의 가전기기 사용 일정을 예측하는 단계와;
상기 사용자에게 가전기기의 사용을 안내하기 위한 신호 및 정보 중 적어도 하나를 출력하는 단계를 포함하는 것을 특징으로 하는 이동단말기의 구동방법.
The method of claim 8,
Predicting a schedule of the user's home appliance use based on information on the home appliance use history included in the behavior pattern information;
And outputting at least one of signals and information for guiding the user to use the home appliance.
삭제delete
KR1020140011162A 2014-01-29 2014-01-29 A mobile device, a cradle for mobile device, and a method of managing them KR102140740B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140011162A KR102140740B1 (en) 2014-01-29 2014-01-29 A mobile device, a cradle for mobile device, and a method of managing them

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140011162A KR102140740B1 (en) 2014-01-29 2014-01-29 A mobile device, a cradle for mobile device, and a method of managing them

Publications (2)

Publication Number Publication Date
KR20150090476A KR20150090476A (en) 2015-08-06
KR102140740B1 true KR102140740B1 (en) 2020-08-03

Family

ID=53885185

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140011162A KR102140740B1 (en) 2014-01-29 2014-01-29 A mobile device, a cradle for mobile device, and a method of managing them

Country Status (1)

Country Link
KR (1) KR102140740B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101983595B1 (en) * 2017-12-29 2019-05-29 건국대학교 글로컬산학협력단 Vibration alarm appratus and control method of vibration alarm apparatus
KR102098088B1 (en) * 2019-03-04 2020-04-07 인천대학교 산학협력단 Mobile device holder controled by a motion
KR20210073120A (en) 2019-12-10 2021-06-18 엘지전자 주식회사 Vacuum cleaner and controll method thereof
KR102303268B1 (en) * 2020-01-20 2021-09-17 주식회사 원더풀플랫폼 System for helper using rotation pattern of cradle
KR102635593B1 (en) * 2020-10-21 2024-02-08 서정수 The Smart phone posture control or the transport unit
JP6990472B1 (en) * 2021-03-23 2022-01-12 ユニロボット株式会社 A system for communicating with people and a program for that purpose

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100612859B1 (en) * 2004-08-26 2006-08-14 삼성전자주식회사 System and method for managing conversational user interface with usage pattern

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101059148B1 (en) * 2006-04-12 2011-08-25 에스케이 텔레콤주식회사 Mobile pet brain system and method using mobile communication terminal
KR101210364B1 (en) * 2006-06-23 2012-12-10 삼성전자주식회사 Mobile communication terminal and method for being operating on the basis behavior analysis result of user

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100612859B1 (en) * 2004-08-26 2006-08-14 삼성전자주식회사 System and method for managing conversational user interface with usage pattern

Also Published As

Publication number Publication date
KR20150090476A (en) 2015-08-06

Similar Documents

Publication Publication Date Title
KR102204554B1 (en) Mobile terminal and control method for the mobile terminal
KR102140740B1 (en) A mobile device, a cradle for mobile device, and a method of managing them
KR102391683B1 (en) An audio device and method for controlling the same
CN105204726A (en) Watch type terminal and control method thereof
US20180189894A1 (en) Mobile terminal and method for controlling the same
KR20170010494A (en) Mobile terminal and method for controlling the same
CN109831549B (en) Mobile terminal
KR20180102870A (en) Electronic device and method for controlling the same
KR102353486B1 (en) Mobile terminal and method for controlling the same
KR20170027606A (en) Watch type terminal and method for controlling the same
KR102118053B1 (en) Mobile terminal and method for controlling the same
KR102591413B1 (en) Mobile terminal and method for controlling the same
KR20170016752A (en) Mobile terminal and method for controlling the same
KR102457143B1 (en) Mobile terminal and method for controlling the same
KR102143346B1 (en) Mobile terminal and method for controlling the same
KR102508151B1 (en) Mobile terminal and method for controlling the same
KR20170127144A (en) Mobile terminal and method for controlling the same
CN111837377B (en) Mobile terminal and control method thereof
KR20180106731A (en) Mobile terminal having artificial intelligence agent
KR20170074372A (en) Mobile terminal and method for controlling the same
KR20170071017A (en) Mobile terminal and method for controlling the same
KR20160109281A (en) Device and method for controlling the same
KR102131831B1 (en) Mobile terminal and method for controlling the same
KR102138530B1 (en) Mobile terminal and method for controlling the same
KR102658400B1 (en) Mobile terminal and its control method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant