KR20200049744A - Portable apparatus and a screen control method thereof - Google Patents

Portable apparatus and a screen control method thereof Download PDF

Info

Publication number
KR20200049744A
KR20200049744A KR1020200052058A KR20200052058A KR20200049744A KR 20200049744 A KR20200049744 A KR 20200049744A KR 1020200052058 A KR1020200052058 A KR 1020200052058A KR 20200052058 A KR20200052058 A KR 20200052058A KR 20200049744 A KR20200049744 A KR 20200049744A
Authority
KR
South Korea
Prior art keywords
text
touch
screen
portable device
continuous movement
Prior art date
Application number
KR1020200052058A
Other languages
Korean (ko)
Other versions
KR102278213B1 (en
Inventor
한민석
노민진
손민식
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020170030649A external-priority patent/KR20180103547A/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020200052058A priority Critical patent/KR102278213B1/en
Publication of KR20200049744A publication Critical patent/KR20200049744A/en
Application granted granted Critical
Publication of KR102278213B1 publication Critical patent/KR102278213B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means

Abstract

Provided are a portable device and a screen control method thereof, and more particularly, to a portable device that changes a screen of the portable device according to a result of recognizing characters in text selected to correspond to a continuous movement of a touch received in a text display area, and a screen control method thereof. Some embodiments of the present invention provide a portable device that changes a screen of the portable device according to control information corresponding to the result of recognizing characters in the text selected by the continuous movement of the touch received from text in the text display area, and a screen control method thereof. The screen control method of a portable device comprises the steps of: sequentially displaying a plurality of text display areas; detecting a touch in one text display area of the plurality of text display areas; detecting a continuous movement of the touch; obtaining character-recognized text in an area where the continuous movement of the touch is detected; obtaining a control command for changing the setting of the portable device corresponding to the obtained text; and changing the setting of the portable device based on the obtained control command.

Description

휴대 장치 및 휴대 장치의 화면 제어방법{PORTABLE APPARATUS AND A SCREEN CONTROL METHOD THEREOF}PORTABLE APPARATUS AND A SCREEN CONTROL METHOD THEREOF}

아래 실시예들은 휴대 장치 및 휴대 장치의 화면 제어방법에 관한 것으로, 상세하게는 휴대 장치에 표시되는 말 풍선(speech bubble)에서 검출된 터치의 연속적인 움직임에 대응하여 화면을 변경하는 휴대 장치 및 휴대 장치의 화면 제어방법에 관한 것이다. The following embodiments relate to a mobile device and a method for controlling a screen of a mobile device, and specifically, a mobile device and a mobile device that changes a screen in response to a continuous movement of a touch detected in a speech bubble displayed on the mobile device. It relates to a screen control method of the device.

기술의 발전으로 휴대 장치는 통화, 데이터 전송뿐만 아니라 멀티 태스킹(multitasking), 또는 다양한 어플리케이션을 통해 다양한 서비스 및 기능들을 제공할 수 있다. With the development of technology, a mobile device can provide various services and functions through multitasking or various applications as well as communication and data transmission.

휴대 장치는 버튼(또는, 키) 클릭, 터치 패널을 통한 터치(또는, 터치 제스처), 마이크를 통한 음성 및 센서를 통한 모션에 의해 사용자 입력을 수신한다. 사용자 입력은 일 회 또는 연속되는(또는, 상술된 사용자 입력의 조합에 의한) 복수 회를 포함할 수 있다. 휴대 장치는 수신된 사용자 입력에 대응되는 화면(예를 들어, 설정 화면(setting))을 표시, 또는, 어플리케이션(예를 들어, 카메라 어플리케이션 등)을 실행할 수 있다. The portable device receives a user input by clicking a button (or key), touching through a touch panel (or touching gesture), voice through a microphone, and motion through a sensor. The user input may include one time or multiple times in succession (or by a combination of the user inputs described above). The portable device may display a screen (eg, a setting screen) corresponding to the received user input, or execute an application (eg, a camera application, etc.).

본 발명의 실시예에 따른 휴대 장치의 화면 제어방법은, 휴대 장치에 표시되는 어플리케이션 화면에서, 문자 인식 가능한 텍스트를 포함하는 말 풍선에서 터치를 검출하는 단계, 상기 터치의 연속적인 움직임을 검출하는 단계, 상기 터치의 연속적인 움직임에 대응하여 상기 텍스트를 문자 인식하는 단계, 및 상기 문자 인식된 상기 텍스트에 대응되는 제어 명령에 따라 상기 어플리케이션 화면을 다른 화면으로 변경하는 단계를 포함하고, 상기 텍스트는 상기 말 풍선 내 텍스트 전부 및 일부 텍스트 중 하나를 포함한다. A method of controlling a screen of a portable device according to an embodiment of the present invention includes detecting a touch on a speech balloon containing text recognizable text on an application screen displayed on the portable device, and detecting continuous movement of the touch. , Recognizing the text in response to the continuous movement of the touch, and changing the application screen to another screen according to a control command corresponding to the text recognized text, wherein the text is the Includes all of the text in the speech bubble and some of the text.

본 발명의 일측에 따르면, 상기 말 풍선은 사용자의 말 풍선 및 상대방의 말 풍선 중 적어도 하나를 포함할 수 있다. According to an aspect of the present invention, the speech balloon may include at least one of a user's speech balloon and an opponent's speech balloon.

본 발명의 일측에 따르면, 상기 터치의 연속적인 움직임은 싱글 터치 제스처 및 멀티 터치 제스처를 포함하고, 플릭, 스와이프, 드래그 및 회전을 포함할 수 있다. According to an aspect of the present invention, the continuous movement of the touch includes a single touch gesture and a multi-touch gesture, and may include flick, swipe, drag, and rotation.

본 발명의 다른 실시예에 따른 휴대 장치의 화면 제어방법은, 휴대 장치에 표시되는 어플리케이션 화면에서, 말 풍선 내 문자 인식 가능한 텍스트에서 터치를 검출하는 단계, 상기 터치에 대응하여 상기 텍스트에서 커서를 표시하는 단계, 상기 터치의 연속적인 움직임을 검출하는 단계, 상기 터치의 연속적인 움직임에 대응하여 상기 커서에서부터 상기 텍스트 중 선택된 일부 텍스트를 문자 인식하는 단계, 및 상기 문자 인식된 상기 텍스트에 대응되는 제어 명령의 수신에 따라 상기 어플리케이션 화면을 다른 화면으로 변경하는 단계를 포함한다. According to another embodiment of the present invention, a screen control method for a mobile device includes detecting a touch in text that can be recognized in a text in a speech balloon on an application screen displayed on the mobile device, and displaying a cursor in the text in response to the touch. Step of detecting a continuous movement of the touch, Recognizing a part of the selected text from the cursor in response to the continuous movement of the touch, and a control command corresponding to the text recognized text And changing the application screen to another screen according to the reception of.

본 발명의 실시예에 따른 휴대 장치는, 외부와 연결하는 통신부, 말 풍선을 포함하는 어플리케이션 화면을 표시하는 터치 스크린, 및 상기 통신부 및 상기 터치 스크린을 제어하는 프로세서를 포함하고, 상기 프로세서는, 문자 인식 가능한 텍스트를 포함하는 말 풍선에서 검출된 터치의 연속적인 움직임에 따라 선택되는 상기 텍스트를 상기 통신부를 통해 외부로 전송하고, 상기 통신부를 통해 수신되는 상기 텍스트의 문자 인식 결과에 대응되는 제어 정보에 따라 상기 어플리케이션 화면을 다른 화면으로 변경하도록 제어한다. A portable device according to an embodiment of the present invention includes a communication unit that connects to the outside, a touch screen that displays an application screen including a speech balloon, and a processor that controls the communication unit and the touch screen. The text selected according to the continuous movement of the touch detected in the speech balloon containing recognizable text is transmitted to the outside through the communication unit, and the control information corresponding to the text recognition result of the text received through the communication unit Accordingly, it is controlled to change the application screen to another screen.

본 발명에 따르면, 채팅 어플리케이션 화면에 표시되는 말 풍선 내 텍스트에서 수신되는 터치의 연속적인 움직임에 대응되어 선택되는 텍스트의 문자 인식 결과에 따라 다른 화면으로 변경하는 휴대 장치 및 휴대 장치의 화면 제어방법이 제공될 수 있다. According to the present invention, a screen control method for a mobile device and a mobile device for changing to a different screen according to a text recognition result of a selected text corresponding to a continuous movement of a touch received from text in a speech balloon displayed on a chat application screen is provided. Can be provided.

채팅 어플리케이션 화면에 표시되는 말 풍선 내 텍스트에서 수신되는 터치의 연속적인 움직임에 의해 선택되는 텍스트의 문자 인식 결과에 따라 제공되는 제어 정보를 통해 다른 화면으로 변경하는 휴대 장치 및 휴대 장치의 화면 제어방법이 제공될 수 있다. A screen control method for a mobile device and a mobile device that changes to another screen through control information provided according to a text recognition result of text selected by a continuous movement of a touch received from text in a speech balloon displayed on a chat application screen Can be provided.

이에 한정되지 않고 본 발명의 다양한 실시예에 따르면, 채팅 어플리케이션 화면에 표시되는 말 풍선 내 텍스트에서 수신되는 터치의 연속적인 움직임에 대응되어 선택되는 텍스트의 문자 인식 결과에 따라 다양한 다른 화면으로 변경하는 휴대 장치 및 휴대 장치의 화면 제어방법이 제공될 수 있다. According to various embodiments of the present disclosure, the present invention is not limited to this, and the mobile device is changed to various different screens according to the result of character recognition of the selected text in response to the continuous movement of the touch received from the text in the speech balloon displayed on the chat application screen A method of controlling a screen of a device and a portable device may be provided.

도 1은 본 발명의 실시예에 따른 휴대 장치 및 서버 사이의 동작을 나타내는 개략적인 도면이다.
도 2는 본 발명의 실시예에 따른 휴대 장치 및 서버를 나타내는 개략적인 블럭도이다.
도 3은 본 발명의 실시예에 따른 휴대 장치의 화면 제어방법을 나타내는 개략적인 순서도이다.
도 4a 내지 도 4e는 본 발명의 실시예에 따른 휴대 장치의 화면 제어방법의 예를 나타내는 도면이다.
도 5a 내지 도 5f는 본 발명의 다른 실시예에 따른 휴대 장치의 화면 제어방법의 예를 나타내는 도면이다.
도 6a 및 도 6b는 본 발명의 다른 실시예에 따른 휴대 장치의 화면 제어방법의 예를 나타내는 도면이다.
1 is a schematic diagram showing an operation between a portable device and a server according to an embodiment of the present invention.
2 is a schematic block diagram showing a portable device and a server according to an embodiment of the present invention.
3 is a schematic flowchart illustrating a screen control method of a portable device according to an embodiment of the present invention.
4A to 4E are views illustrating an example of a method for controlling a screen of a portable device according to an embodiment of the present invention.
5A to 5F are diagrams illustrating an example of a method for controlling a screen of a portable device according to another embodiment of the present invention.
6A and 6B are views illustrating an example of a screen control method of a portable device according to another embodiment of the present invention.

이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시예를 상세하게 설명한다. 또한, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명을 제조하고 사용하는 방법을 상세히 설명한다. 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. Hereinafter, exemplary embodiments according to the present invention will be described in detail with reference to the contents described in the accompanying drawings. Also, a method of manufacturing and using the present invention will be described in detail with reference to the contents described in the accompanying drawings. The same reference numerals or symbols in each drawing denote parts or components that perform substantially the same function.

'제1', '제2' 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있으며, 상술된 구성 요소들은 상술된 용어들에 의해 한정되지 않는다. 상술된 용어들은 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위에서 제1 구성 요소는 제2 구성 요소로 명명될 수 있다. 또한, 제2 구성 요소는 제1 구성 요소로 명명될 수도 있다. '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. Terms including an ordinal number such as 'first', 'second', etc. may be used to describe various components, and the above-described components are not limited by the above-described terms. The above-mentioned terms may be used for the purpose of distinguishing one component from another component. For example, in the scope of the present invention, the first component may be referred to as the second component. Also, the second component may be referred to as a first component. The term 'and / or' includes a combination of a plurality of listed items or any one of a plurality of listed items.

본 발명의 실시예에 따른 어플리케이션(application)은 컴퓨터(또는, 휴대 장치)용 OS(Operating System) 또는 모바일 OS 위에서 실행되어 사용자가 사용하는 소프트웨어를 의미한다. 예를 들어, 어플리케이션은 웹 브라우저(web browser), 카메라 어플리케이션, 모바일 결제(mobile payment) 어플리케이션(또는, 전자 결제 어플리케이션, 결제 어플리케이션), 포토 앨범(photo album) 어플리케이션, 워드 프로세서(word processor), 스프레드 시트(spread sheet), 연락처(contacts) 어플리케이션, 캘린더(calendar) 어플리케이션, 메모(memo) 어플리케이션, 알람(alarm) 어플리케이션, SNS(Social Network System) 어플리케이션, 통화 어플리케이션(call), 게임 장터(game store), 게임 어플리케이션(game), 채팅(chatting) 어플리케이션, 지도(Map) 어플리케이션, 뮤직 플레이어(music player) 또는 비디오 플레이어(video player) 등을 포함할 수 있다. An application according to an embodiment of the present invention refers to software used by a user running on an operating system (OS) for a computer (or portable device) or a mobile OS. For example, the application is a web browser, a camera application, a mobile payment application (or electronic payment application, payment application), a photo album application, a word processor, a spread Spread sheet, contacts application, calendar application, memo application, alarm application, SNS (Social Network System) application, call application, game store , A game application, a chat application, a map application, a music player or a video player.

본 발명의 실시예에 따른 어플리케이션은 휴대 장치 또는 휴대 장치와 무선 또는 유선으로 연결되는 외부 장치(예를 들어, 웨어러블 장치, 서버 등)에서 실행되는 소프트웨어를 의미할 수 있다. 또한, 본 발명의 실시예에 따른 어플리케이션은 수신되는 사용자 입력에 대응하여 휴대 장치에서 실행되는 소프트웨어를 의미할 수 있다. The application according to an embodiment of the present invention may refer to software executed on a portable device or an external device (eg, a wearable device, a server, etc.) connected wirelessly or wiredly to the portable device. In addition, the application according to an embodiment of the present invention may mean software executed in a portable device in response to a received user input.

콘텐트(content)는 실행되는 어플리케이션을 통해 재생(play)되거나 또는 표시될 수 있다. 예를 들어, 어플리케이션 중 하나인 비디오 플레이어에서 재생되는 비디오 파일 또는 오디오 파일, 게임 어플리케이션에서 실행되는 게임 파일, 뮤직 플레이어에서 재생되는 뮤직 파일, 포토 앨범 어플리케이션에서 표시되는 포토 파일, 웹 브라우저에서 표시되는 웹 페이지 파일, 또는, 전자 결제 어플리케이션에서 표시되는 결제 정보(예를 들어, 모바일 카드 번호, 결제 대금, 상품 이름, 서비스 이름, 또는, 가게 이름 등) 등을 포함할 수 있다. 또한, 콘텐트는 통화 어플리케이션에서 표시되는 통화 화면(예를 들어, 발신자 전화 번호(caller ID), 발신자 이름, 통화 시작 시간, 또는 영상 통화에 의한 발신자 동영상(또는, 발신자 이미지) 등을 포함)을 포함할 수 있다. The content may be played or displayed through an executed application. For example, a video file or audio file played in a video player, an application, a game file played in a game application, a music file played in a music player, a photo file displayed in a photo album application, or a web displayed in a web browser It may include a page file, or payment information displayed in an electronic payment application (eg, mobile card number, payment price, product name, service name, or store name, etc.). In addition, the content includes a call screen (eg, caller ID, caller name, call start time, or caller video (or caller image) by video call) displayed in the call application. can do.

콘텐트는 실행되는 어플리케이션 화면 및 어플리케이션 화면을 구성하는 유저 인터페이스(user interface)를 포함할 수 있다. 또한, 콘텐트는 하나의 콘텐트 또는 복수의 콘텐츠(contents)를 포함할 수도 있다. The content may include a running application screen and a user interface constituting the application screen. In addition, the content may include a single content or a plurality of content.

위젯(widget)은 사용자와 어플리케이션 또는 OS와의 상호 작용을 보다 원활하게 지원해주는 그래픽 유저 인터페이스(GUI, Graphic User Interface) 중 하나인 미니 어플리케이션을 의미한다. 예를 들어, 날씨 위젯, 계산기 위젯, 시계 위젯 등이 있다. A widget means a mini-application, which is one of graphic user interfaces (GUIs) that more smoothly supports interaction between a user and an application or an OS. Examples include weather widgets, calculator widgets, and clock widgets.

본 발명의 실시예에서 '말 풍선(bubble speech)'은 실행된 어플리케이션을 통해 사용자 및/또는 상대방이 입력한 텍스트가 표시되는 영역을 의미할 수 있다. '말 풍선'은 '텍스트 표시 영역(text display area)'이라고 칭할 수 있다. In the embodiment of the present invention, 'bubble speech' may mean an area in which text input by a user and / or a counterpart through an executed application is displayed. The 'speech balloon' may be referred to as a 'text display area'.

본 발명의 실시예에서, '사용자 입력'은 예를 들어, 사용자의 버튼(또는 키) 선택, 사용자의 버튼(또는 키)의 눌림(또는, 클릭), 사용자의 소프트 버튼(또는 소프트 키) 터치, 사용자에 의해 터치 스크린에서 수신(또는, 검출)되는 터치(또는, 호버링 같은 비 접촉 포함), 사용자에 의해 터치 스크린에서 수신(또는, 검출)되는 터치 제스처(또는, 호버링 같은 비 접촉 포함, 사용자의 음성, 사용자의 출현(presence, 예를 들어, 사용자가 카메라 인식 범위 내 나타남), 또는 사용자의 모션을 포함하는 용어로 사용될 수 있다. 또한, '버튼(또는 키)의 선택'은 버튼(또는 키)의 눌림(또는, 클릭) 또는 소프트 버튼(또는 소프트 키)의 터치를 의미하는 용어로 사용될 수 있다. In an embodiment of the present invention, 'user input' may be, for example, a user's button (or key) selection, a user's button (or key) pressed (or clicked), or a user's soft button (or soft key) touch , A touch that is received (or detected) by the user on the touch screen (or includes non-contact such as hovering), a touch gesture that is received (or detected) by the user on the touch screen (or includes non-contact such as hovering, user It can be used as a term including the voice of the user, the appearance of the user (for example, the user appears within the camera recognition range), or the motion of the user. It may be used as a term for pressing (or clicking) a key or touching a soft button (or a soft key).

본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 본 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서 '포함하다' 또는 '가지다' 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 각 도면에 제시된 동일한 참조부호는 실질적으로 동일한 기능을 수행하는 부재를 나타낸다. Terms used in the present specification are used to describe examples, and are not intended to limit and / or limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, the term 'include' or 'have' is intended to indicate that there is a feature, number, step, operation, component, part, or a combination thereof described in the specification, or one or more other features or It should be understood that the presence or addition possibilities of numbers, steps, actions, components, parts or combinations thereof are not excluded in advance. The same reference numerals in each drawing denote members that perform substantially the same function.

도 1은 본 발명의 실시예에 따른 휴대 장치 및 서버 사이의 동작을 나타내는 개략적인 도면이다. 1 is a schematic diagram showing an operation between a portable device and a server according to an embodiment of the present invention.

도 1을 참조하면, 휴대 장치(100) 및 하나 또는 복수의 서버가 표시된다. Referring to FIG. 1, the portable device 100 and one or more servers are displayed.

휴대 장치(100)의 전면(100a) 중앙 영역에 터치 스크린(touch screen, 190)이 위치한다. 터치 스크린(190)는 플랫(flat) 터치 스크린, 플랫 터치스크린의 일측에서 곡면으로 연장되는 싱글 에지 터치 스크린(single edge touch screen, 도시되지 아니함) 및 플랫 터치스크린의 양측에서 각각 곡면으로 연장되는 양측 에지 터치 스크린(dual edge touch screen)을 포함할 수 있다. 또한, 터치 스크린(190)는 얇고 유연한 인쇄 회로 기판(도시되지 아니함)을 통해 휘거나 구부릴 수 있다. A touch screen 190 is positioned in a central area of the front surface 100a of the portable device 100. The touch screen 190 includes a flat touch screen, a single edge touch screen (not shown) extending from one side of the flat touch screen to a curved surface, and both sides extending from each side of the flat touch screen to a curved surface. It may include a dual edge touch screen. In addition, the touch screen 190 can be bent or bent through a thin and flexible printed circuit board (not shown).

도 1에서, 터치 스크린(190)에 사용자 입력에 의해 실행된 채팅 어플리케이션의 화면(191)이 표시된다. 채팅 어플리케이션 화면(191)은 타이틀 영역(191a), 표시 영역(191b) 및 입력 영역(191c)를 포함할 수 있다. 입력 영역(191c)내 입력 창(191c1)을 선택하는 경우, 터치 스크린(190)에 키패드(166, 도 2 참조)가 표시될 수 있다. In FIG. 1, a screen 191 of a chat application executed by user input is displayed on the touch screen 190. The chat application screen 191 may include a title area 191a, a display area 191b, and an input area 191c. When the input window 191c1 in the input area 191c is selected, a keypad 166 (see FIG. 2) may be displayed on the touch screen 190.

채팅 어플리케이션에서, 발신자에 의해 입력된 텍스트는 표시 영역(191b)의 말 풍선(speech bubble, 또는, 텍스트 표시 영역(text display area), 191b1, 191b11)에 표시될 수 있다. 텍스트는 단어, 문장 또는 단락을 포함할 수 있다. 상술된 텍스트는 한글의 자음과 모음, 영어의 알파벳, 일본어, 중국어, 프랑스어, 독일어 등 채팅 어플리케이션에서 제공 가능한 언어를 포함할 수 있다. 말 풍선은 텍스트 표시 영역이라고 칭할 수 있다. In the chat application, the text input by the caller may be displayed in a speech bubble, or text display area, 191b1, 191b11 in the display area 191b. Text can include words, sentences, or paragraphs. The above-described text may include consonants and vowels in Korean, alphabets in English, Japanese, Chinese, French, German, and other languages available in chat applications. The speech balloon can be referred to as a text display area.

사용자가 텍스트 입력 창(191c1)을 통해 입력한 텍스트는 표시 영역(191b)의 말 풍선(191b2)에 표시될 수 있다. 사용자는 말 풍선(191b1, 191b11, 191b2)에 표시되는 텍스트 중 일부를 터치(또는, 선택)하거나 또는 터치 후 연속적인 움직임(또는, 터치 제스처)을 입력할 수 있다. 사용자는 말 풍선 내 텍스트의 터치(또는, 터치의 연속적인 움직임)를 통해 휴대 장치(100)의 화면을 제어(예를 들어, 재-부팅(reboot), 설정 화면 표시, 어플리케이션 실행 등)할 수 있다. The text entered by the user through the text input window 191c1 may be displayed on the speech balloon 191b2 of the display area 191b. The user may touch (or select) some of the text displayed on the speech balloons 191b1, 191b11, and 191b2, or input a continuous movement (or touch gesture) after the touch. The user can control the screen of the mobile device 100 through the touch (or continuous movement of the touch) of the text in the speech balloon (for example, re-booting, displaying a setting screen, running an application, etc.). have.

휴대 장치(100)의 전면(100a) 상부에는 제1 카메라(151), 하나 또는 복수의 스피커(163), 조도 센서(171) 및 근접 센서(172, 도2 참조)가 위치할 수 있다. 휴대 장치(100)의 후면(도시되지 아니함)에는 제2 카메라(152, 도2 참조) 및 플래시(flash, 153, 도2 참조)가 위치할 수 있다. A first camera 151, one or more speakers 163, an illuminance sensor 171, and a proximity sensor 172 (see FIG. 2) may be positioned on the front surface 100a of the portable device 100. A second camera 152 (see FIG. 2) and a flash (flash, 153, see FIG. 2) may be located on a rear surface (not shown) of the portable device 100.

휴대 장치(100)의 전면(100a)의 하부에는 홈 버튼(161a), 최근 실행 앱 버튼(161b), 및 돌아 가기 버튼(161c)이 위치한다. 버튼(161)은 물리 버튼(예를 들어, 홈 버튼(161a), 전원/잠금 버튼(161d), 볼륨 버튼(161e) 등)뿐만 아니라 터치 버튼(예를 들어, 홈 버튼(161a), 최근 실행 앱 버튼(161b), 돌아 가기 버튼(161c))으로 구현될 수 있다. 또한, 버튼(161)은 터치 스크린(190)내 텍스트 또는 다른 아이콘과 함께 표시될 수 있다. A home button 161a, a recently-launched app button 161b, and a return button 161c are positioned below the front surface 100a of the mobile device 100. The button 161 is not only a physical button (for example, a home button 161a, a power / lock button 161d, a volume button 161e, etc.), but also a touch button (for example, a home button 161a), recently executed It can be implemented as an app button (161b), a back button (161c). Also, the button 161 may be displayed along with text or other icons in the touch screen 190.

휴대 장치(100)의 측면에 전원/잠금 버튼(161d), 및 볼륨 버튼(161e)이 위치할 수 있다. 휴대 장치(100)의 측면은 휴대 장치(100)의 전면(100a) 및 후면을 연결하며, 좌 측면, 우 측면, 상단 및 하단을 포함할 수 있다. The power / lock button 161d and the volume button 161e may be located on the side of the portable device 100. The side surface of the portable device 100 connects the front surface 100a and the rear surface of the portable device 100, and may include a left side, a right side, a top, and a bottom.

휴대 장치(100)의 상단, 측면 및/또는 하단에 하나 또는 복수의 마이크(162, 도2 참조)가 위치할 수 있다. 휴대 장치(100)의 상단, 측면 및/또는 하단에 커넥터(165) 및/또는 스피커(163)가 위치할 수 있다. 또한, 휴대 장치(100)의 상단 또는 하단에는 버튼(도시되지 아니함)을 가지는 입력 펜(167, 도2 참조)이 삽입 가능한 삽입구(도시되지 아니함)가 위치할 수 있다. 입력 펜(167, 도2 참조)은 삽입구(도시되지 아니함)를 통해 휴대 장치(100) 내부에 보관될 수 있으며, 사용을 위해 휴대 장치(100)에서부터 인출될 수 있다.One or a plurality of microphones 162 (see FIG. 2) may be positioned on the top, side, and / or bottom of the portable device 100. The connector 165 and / or the speaker 163 may be located on the top, side, and / or bottom of the portable device 100. Also, an insertion port (not shown) in which an input pen 167 (see FIG. 2) having a button (not shown) can be inserted may be located at the top or bottom of the portable device 100. The input pen 167 (see FIG. 2) may be stored inside the portable device 100 through an insertion port (not shown), and may be withdrawn from the portable device 100 for use.

문자 인식 서버(200)는 휴대 장치(100)에서 선택된 텍스트에 대응되는 전기적 신호(또는, 전기적 신호에 대응되는 패킷)를 문자 인식을 통해 생성되는 텍스트 데이터(예를 들어, 텍스트, 또는, 코드 등)로 변환할 수 있다. 변환된 텍스트 데이터는 휴대 장치(100)를 거쳐 제어 서버(300)로 전송되거나 또는 제어 서버(300)로 바로 전송될 수 있다. The text recognition server 200 generates text data (for example, text, or code, etc.) generated through character recognition of an electrical signal (or a packet corresponding to an electrical signal) corresponding to the text selected in the portable device 100. ). The converted text data may be transmitted to the control server 300 via the mobile device 100 or directly to the control server 300.

제어 정보 서버(300)는 변환된 텍스트 데이터를 휴대 장치(100)에서 인식가능한 제어 정보(예를 들어, 휴대 장치(100)를 제어하는 제어 명령어)로 변환할 수 있다. 제어 정보는 제어 정보 서버(300)에서부터 휴대 장치(100)로 전송될 수 있다. 문자 인식 서버(200) 및 제어 정보 서버(300)에 대한 상세한 설명은 후술된다. The control information server 300 may convert the converted text data into control information recognizable by the mobile device 100 (eg, control commands for controlling the mobile device 100). The control information may be transmitted from the control information server 300 to the portable device 100. The detailed description of the character recognition server 200 and the control information server 300 will be described later.

도 2는 본 발명의 실시예에 따른 휴대 장치 및 서버를 나타내는 개략적인 블럭도이다. 2 is a schematic block diagram showing a portable device and a server according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 휴대 장치(100)는 이동 통신부(120), 서브 통신부(130) 및 커넥터(165) 중 적어도 하나를 이용하여 다른 장치(예를 들어, 다른 휴대 장치, 또는, 서버 등)와 기능적으로 연결될 수 있다. Referring to FIGS. 1 and 2, the portable device 100 uses another device (eg, another portable device, or) using at least one of the mobile communication unit 120, the sub communication unit 130, and the connector 165. Server, etc.).

휴대 장치(100)는 터치 스크린(190)을 가지고 통신부(120 또는 130)를 통해 데이터를 다른 장치로 송신하거나 또는 다른 장치에서부터 수신할 수 있다. 휴대 장치(100)는 입력 펜(167), 터치 스크린(190)을 가지고 통신부(120 또는 130)를 통해 데이터를 외부로 송신하거나 또는 외부에서부터 수신할 수 있다. The portable device 100 may transmit data to or from another device through the communication unit 120 or 130 with the touch screen 190. The portable device 100 may have an input pen 167 and a touch screen 190 and transmit data to or from the outside through the communication unit 120 or 130.

휴대 장치(100)는 제어부(110), 이동 통신부(120), 서브 통신부(130), 멀티미디어부(140), 카메라(150), 위치 정보 수신부(positioning information receiver, 155), 입/출력부(160), 센서부(170), 저장부(175) 및 전원 공급부(180)를 포함한다. 또한, 휴대 장치(100)는 터치 스크린(190) 및 터치 스크린 컨트롤러(195)를 포함한다. The portable device 100 includes a control unit 110, a mobile communication unit 120, a sub communication unit 130, a multimedia unit 140, a camera 150, a positioning information receiver (155), and an input / output unit ( 160), a sensor unit 170, a storage unit 175 and a power supply unit 180. Also, the portable device 100 includes a touch screen 190 and a touch screen controller 195.

제어부(110)는 프로세서(processor, 111)를 포함할 수 있다. 또한, 제어부(110)는 휴대 장치(100)의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 112) 및 휴대 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 저장하거나, 휴대 장치(100)에서 수행되는 다양한 작업에 대한 저장 영역으로 사용되는 램(RAM, 113)을 더 포함할 수 있다. The control unit 110 may include a processor (processor, 111). In addition, the control unit 110 stores a signal or data input from the outside of the portable device 100 and a ROM (ROM, 112) in which a control program for controlling the portable device 100 is stored, or the portable device 100. A RAM (113) used as a storage area for various tasks performed may be further included.

제어부(110)는 휴대 장치(100)의 전반적인 동작 및 휴대 장치(100)의 내부 구성 요소들(110 내지 195)간의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 제어부(110)는 전원 공급부(180)를 이용하여 내부 구성 요소들(120 내지 195)에게 전원 공급을 제어한다. The controller 110 controls the overall operation of the portable device 100 and the signal flow between the internal components 110 to 195 of the portable device 100 and processes data. The control unit 110 controls the supply of power to the internal components 120 to 195 using the power supply unit 180.

프로세서(111)는 그래픽 처리를 위한 GPU(graphic processing unit, 도시되지 아니함)를 포함할 수 있다. 또한, 프로세서(111)는 센서를 제어하는 센서 프로세서(sensor processor, 도시되지 아니함) 또는 통신을 제어하는 통신 프로세서(communication processor, 도시되지 아니함)를 더 포함할 수 있다 The processor 111 may include a graphic processing unit (GPU) (not shown) for graphic processing. In addition, the processor 111 may further include a sensor processor (not shown) for controlling the sensor or a communication processor (not shown) for controlling the communication.

프로세서(111)는 코어(core, 도시되지 아니함)와 GPU를 포함하는 SoC(system on chip) 형태로 구현될 수 있다. 또한, 프로세서(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다. The processor 111 may be implemented in the form of a system on chip (SoC) including a core (not shown) and a GPU. In addition, the processor 111 may include a single core, a dual core, a triple core, a quad core, and multiple cores thereof.

프로세서(111), 롬(112) 및 램(113)은 버스(bus)에 의해 상호 연결될 수 있다. The processor 111, the ROM 112, and the RAM 113 may be interconnected by a bus.

제어부(110)는 이동 통신부(120), 서브 통신부(130), 멀티미디어부(140), 카메라(150), 위치 정보 수신부(155), 입/출력부(160), 센서부(170), 저장부(175), 전원 공급부(180), 터치 스크린(190) 및 터치 스크린 컨트롤러(195)를 제어할 수 있다. The control unit 110 includes a mobile communication unit 120, a sub communication unit 130, a multimedia unit 140, a camera 150, a location information receiving unit 155, an input / output unit 160, a sensor unit 170, and storage The control unit 175, the power supply unit 180, the touch screen 190, and the touch screen controller 195 may be controlled.

본 발명의 실시예에서 ‘휴대 장치의 제어부’라는 용어는 프로세서(111), 롬(112) 및 램(113)을 포함하는 의미일 수 있다. 또한, ‘휴대 장치의 제어부’라는 용어는 프로세서(111)를 의미할 수도 있다. In the exemplary embodiment of the present invention, the term “control unit of a portable device” may mean a processor 111, a ROM 112, and a RAM 113. Also, the term “control unit of the portable device” may mean the processor 111.

이동 통신부(120)는 제어부(110)의 제어에 의해 하나 또는 둘 이상의 안테나를 이용하여 이동 통신망을 통해 다른 장치와 연결할 수 있다. The mobile communication unit 120 may connect to other devices through a mobile communication network using one or more antennas under the control of the control unit 110.

서브 통신부(130)는 제어부(110)의 제어에 의해 하나 또는 둘 이상의 안테나를 이용하여 무선랜 통신부(131) 및/또는 근거리 통신부(132)를 통해 다른 장치와 연결할 수 있다. 서브 통신부(130)는 무선랜용 안테나, 전자 결제를 위한 마그네틱 보안 전송(magnetic secure transmission, MST)용 안테나 또는 NFC(near field communication) 통신용 안테나를 포함할 수 있다. The sub-communication unit 130 may connect to another device through the wireless LAN communication unit 131 and / or the short-range communication unit 132 using one or more antennas under the control of the control unit 110. The sub-communication unit 130 may include a wireless LAN antenna, an antenna for magnetic secure transmission (MST) for electronic payment, or an antenna for near field communication (NFC) communication.

무선랜 통신부(131)는 제어부(110)의 제어에 의해 AP(access point)가 설치된 장소에서 무선으로 AP와 연결될 수 있다. 무선랜 통신부(131)는 예를 들어, 와이-파이(Wi-Fi) 통신을 지원할 수 있다. The wireless LAN communication unit 131 may be wirelessly connected to the AP in a place where an access point (AP) is installed under the control of the controller 110. The wireless LAN communication unit 131 may support, for example, Wi-Fi communication.

근거리 통신은 블루투스(bluetooth) 통신, 블루투스 저 에너지(bluetooth low energy) 통신, 적외선 통신(IrDA, infrared data association), UWB(ultra-wideband) 통신, 마그네틱 보안 전송(MST) 통신 및/또는 NFC 통신 등을 포함할 수 있다. Near field communication includes Bluetooth communication, Bluetooth low energy communication, infrared data association (IrDA), ultra-wideband communication (UWB), magnetic security transmission (MST) communication, and / or NFC communication. It may include.

휴대 장치(100)는 기능 및/또는 성능에 따라 이동 통신부(120), 무선랜 통신부(131), 및 근거리 통신부(132) 중 하나, 또는 이동 통신부(120), 무선랜 통신부(131), 및 근거리 통신부(132)의 조합을 포함할 수 있다. 본 발명의 다양한 실시예에서 ‘통신부’라는 용어는 이동 통신부(120) 및/또는 서브 통신부(130)를 포함할 수 있다. The mobile device 100 may be one of the mobile communication unit 120, the wireless LAN communication unit 131, and the short-range communication unit 132, or the mobile communication unit 120, the wireless LAN communication unit 131, depending on the function and / or performance. It may include a combination of short-range communication unit 132. In various embodiments of the present invention, the term “communication unit” may include the mobile communication unit 120 and / or the sub communication unit 130.

멀티미디어부(140)는 제어부(110)의 제어에 의해 오디오 재생, 동영상 재생 및/또는 외부의 방송을 수신할 수 있다. The multimedia unit 140 may receive audio reproduction, video reproduction, and / or external broadcasting under the control of the controller 110.

오디오 재생부(141)는 제어부(110)의 제어에 의해 휴대 장치(100)의 저장부(175)에 기 저장되거나 또는 외부에서부터 수신되는 오디오 소스(예를 들어, 파일 확장자가 mp3, wma, ogg 또는 wav를 포함하는 오디오 파일)를 오디오 코덱을 이용하여 재생할 수 있다. The audio reproducing unit 141 is an audio source previously stored in the storage unit 175 of the portable device 100 or received from the outside under the control of the control unit 110 (for example, a file extension of mp3, wma, ogg Alternatively, audio files including wav) may be played using an audio codec.

본 발명의 다양한 실시예에 따라 오디오 재생부(141)는 말 풍선 내 텍스트에서 수신되는 터치의 연속적인 움직임에 따른 다른 화면 변경에 대응되는 청각 피드백을 재생할 수 있다. 예를 들어, 오디오 재생부(141)는 제어부(110)의 제어에 의해 압력 말 풍선 내 텍스트에서 수신되는 터치의 연속적인 움직임에 따른 다른 화면 변경에 대응되는 청각 피드백(예를 들어, 저장부(175)에 저장된 오디오 소스의 출력 등)을 오디오 코덱을 통해 재생할 수 있다. According to various embodiments of the present disclosure, the audio playback unit 141 may play auditory feedback corresponding to another screen change according to the continuous movement of the touch received from the text in the speech balloon. For example, the audio reproducing unit 141 may receive auditory feedback (eg, a storage unit (eg, a storage unit) corresponding to another screen change according to the continuous movement of the touch received from the text in the pressure speech balloon under the control of the control unit 110. 175) can be played through the audio codec.

동영상 재생부(142)는 제어부(110)의 제어에 의해 휴대 장치(100)의 저장부(175)에 기 저장되거나 또는 외부에서부터 수신되는 디지털 동영상 소스(예를 들어, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv를 포함하는 비디오 파일)을 비디오 코덱을 이용하여 재생할 수 있다. The video playback unit 142 is a digital video source previously stored in the storage unit 175 of the portable device 100 or received from the outside under the control of the control unit 110 (for example, the file extension is mpeg, mpg, video files including mp4, avi, mov, or mkv) can be played using a video codec.

본 발명의 다양한 실시예에 따라 동영상 재생부(142)는 말 풍선 내 텍스트에서 수신되는 터치의 연속적인 움직임에 따른 다른 화면 변경에 대응되는 시각 피드백을 재생할 수 있다. 예를 들어, 시각 피드백(예를 들어, 저장부(175)에 저장된 동영상 소스의 출력 등)은 제어부(110)의 제어에 의해 비디오 코덱을 통해 재생될 수 있다. According to various embodiments of the present invention, the video reproducing unit 142 may reproduce visual feedback corresponding to another screen change according to the continuous movement of the touch received from the text in the speech balloon. For example, visual feedback (eg, output of a video source stored in the storage unit 175) may be reproduced through a video codec under the control of the controller 110.

방송 수신부(143)는 제어부(110)의 제어에 의해 안테나(도시되지 아니함)를 통해 외부의 방송국에서부터 송출되는 방송 신호(예를 들어, TV 방송 신호, 라디오 방송 신호 또는 데이터 방송 신호) 및 방송 부가 정보(예를 들어, EPG(electronic program guide) 또는 ESG(electronic service guide))를 수신할 수 있다. The broadcast receiving unit 143 is a broadcast signal (eg, a TV broadcast signal, a radio broadcast signal or a data broadcast signal) transmitted from an external broadcast station through an antenna (not shown) under the control of the control unit 110, and a broadcast addition Information (eg, an electronic program guide (EPG) or an electronic service guide (ESG)) may be received.

멀티미디어부(140)는 휴대 장치(100)의 성능 또는 구조에 대응하여 방송 수신부(143)을 제외하고 오디오 재생부(141)과 동영상 재생부(142)를 포함할 수 있다. 또한, 제어부(110)는 멀티미디어부(140)의 오디오 재생부(141) 및 동영상 재생부(142) 중 적어도 하나를 포함하도록 구현될 수도 있다. The multimedia unit 140 may include an audio playback unit 141 and a video playback unit 142 except for the broadcast reception unit 143 in response to the performance or structure of the portable device 100. In addition, the control unit 110 may be implemented to include at least one of the audio playback unit 141 and the video playback unit 142 of the multimedia unit 140.

카메라(150)는 제어부(110)의 제어에 의해 정지 이미지 또는 동영상을 촬영할 수 있다. 카메라(150)는 전면에 위치하는 제1 카메라(151) 및 후면에 위치하는 제2 카메라(152)를 포함한다. 제1 카메라(151) 또는 제2 카메라(152)는 촬영에 필요한 광량을 제공하는 보조 광원(예를 들어, 플래시(153))을 포함할 수 있다. The camera 150 may take a still image or a video under the control of the controller 110. The camera 150 includes a first camera 151 positioned on the front side and a second camera 152 positioned on the rear side. The first camera 151 or the second camera 152 may include an auxiliary light source (eg, a flash 153) that provides the amount of light required for shooting.

카메라(150)는 휴대 장치(100)의 전면에 위치하는 제1 카메라(151) 및 제1 카메라(151)에 인접(예를 들어, 두 광축 사이의 간격이 5 ㎜ 보다 크고 80 ㎜ 보다 작은)한 추가 카메라(예를 들어, 제3 카메라(도시되지 아니함))를 더 포함할 수 있다. 또한, 카메라(150)는 제1 카메라(151)와 제3 카메라를 하나의 유닛(unit)으로 구현된 형태를 더 포함할 수도 있다. 제어부(110)는 제1 카메라(151) 및 제3 카메라를 이용하여 3 차원 정지 이미지 또는 3 차원 동영상을 촬영할 수 있다. The camera 150 is adjacent to the first camera 151 and the first camera 151 located on the front of the portable device 100 (for example, a distance between two optical axes is greater than 5 mm and less than 80 mm). One additional camera (eg, a third camera (not shown)) may be further included. Also, the camera 150 may further include a form in which the first camera 151 and the third camera are implemented as one unit. The controller 110 may take a 3D still image or a 3D video using the first camera 151 and the third camera.

카메라(150)는 휴대 장치(100)의 후면에 위치하는 제2 카메라(152) 및 제2 카메라(152)에 인접(예를 들어, 광축 사이의 간격이 5 ㎜ 보다 크고 80 ㎜ 보다 작은)한 추가 카메라(예를 들어, 제4 카메라(도시되지 아니함))를 더 포함 할 수 있다. 또한, 카메라(150)는 제2 카메라(도시되지 아니함)와 제4 카메라를 하나의 유닛(unit)으로 구현된 형태를 더 포함할 수도 있다. 제어부(110)는 제2 카메라(152) 및 제4 카메라를 이용하여 3차원 정지 이미지 또는 3차원 동영상을 촬영할 수 있다. 카메라(150)는 별도의 어댑터(도시되지 아니함)에 착탈가능한 추가 렌즈(도시되지 아니함)를 이용하여 광각 촬영, 망원 촬영 또는 접사 촬영을 할 수 있다. The camera 150 is adjacent to the second camera 152 and the second camera 152 located at the rear of the portable device 100 (for example, the distance between the optical axes is greater than 5 mm and less than 80 mm). An additional camera (eg, a fourth camera (not shown)) may be further included. In addition, the camera 150 may further include a form in which the second camera (not shown) and the fourth camera are implemented as one unit. The controller 110 may take a 3D still image or a 3D video using the second camera 152 and the fourth camera. The camera 150 may perform wide-angle shooting, telephoto shooting, or close-up shooting using an additional lens (not shown) detachably attached to a separate adapter (not shown).

위치 정보 수신부(155)는 지구 궤도상에 있는 복수의 위성(도시되지 아니함)에서부터 주기적으로 신호(예를 들어, 위성의 궤도 정보, 위성의 시간 정보 및 항법 메시지 등)를 수신한다. The location information receiving unit 155 periodically receives signals (for example, orbit information of a satellite, time information of a satellite, and navigation messages) from a plurality of satellites (not shown) in orbit of the earth.

휴대 장치(100)는 복수의 위성에서부터 수신되는 신호를 이용하여 각각의 위성과 휴대 장치(100)의 위치를 산출하고, 송/수신 시간차를 이용하여 거리를 산출할 수 있다. 삼각 측량을 통해 휴대 장치(100)의 위치, 시간 또는 이동 속도를 산출할 수 있다. 궤도 보정 또는 시간 보정을 위해 추가의 위성이 필요할 수 있다. The portable device 100 may calculate the position of each satellite and the portable device 100 using signals received from a plurality of satellites, and may calculate a distance using a transmission / reception time difference. Through the triangulation, the position, time, or movement speed of the portable device 100 can be calculated. Additional satellites may be required for orbit correction or time correction.

실내의 경우, 휴대 장치(100)는 무선 AP를 이용하여 휴대 장치(100)의 위치 또는 이동 속도를 검출할 수 있다. 실내에서 휴대 장치(100)의 위치 검출은 셀 아이디(cell-ID) 방식, 강화 셀 아이디(enhanced cell-ID) 방식 또는 AoA(angle of arrival) 방식을 이용할 수 있다. 또한, 휴대 장치(100)는 무선 비컨(beacon, 도시되지 아니함)을 이용하여 실내에 위치하는 휴대 장치(100)의 위치 또는 이동 속도를 검출할 수 있다. In the case of indoors, the portable device 100 may detect the position or movement speed of the portable device 100 using a wireless AP. The detection of the location of the portable device 100 indoors may use a cell-ID method, an enhanced cell-ID method, or an angle of arrival (AoA) method. In addition, the portable device 100 may detect the position or movement speed of the portable device 100 located indoors using a wireless beacon (not shown).

입/출력부(160)는 하나 또는 둘 이상의 버튼(161), 하나 또는 둘 이상의 마이크(162), 하나 또는 둘 이상의 스피커(163), 하나 또는 둘 이상의 진동 모터(164), 커넥터(165), 키패드(166) 및 입력 펜(167) 중 적어도 하나를 포함할 수 있다. The input / output unit 160 includes one or more buttons 161, one or more microphones 162, one or more speakers 163, one or more vibration motors 164, a connector 165, It may include at least one of the keypad 166 and the input pen 167.

도 1 및 도 2를 참조하면, 버튼(161)은 사용자 입력을 수신할 수 있다. 버튼(161)은 휴대 장치(100)의 전면 하부에 위치하는 홈 버튼(161a), 최근 실행 앱 버튼(161b), 및/또는 돌아가기 버튼(161c)을 포함할 수 있다. 버튼(161)은 휴대 장치(100)의 측면에 위치하는 하나 또는 복수의 볼륨 버튼(161d) 및 전원/잠금 버튼(161e)을 포함할 수 있다. 또한, 버튼(161)은 홈 버튼(161a), 볼륨 버튼(161d) 및 전원/잠금 버튼(161e)만으로 구현될 수도 있다. 1 and 2, the button 161 may receive a user input. The button 161 may include a home button 161a, a recently-launched app button 161b, and / or a return button 161c located on the lower front of the mobile device 100. The button 161 may include one or more volume buttons 161d and a power / lock button 161e positioned on the side of the portable device 100. Further, the button 161 may be implemented only with the home button 161a, the volume button 161d, and the power / lock button 161e.

버튼(161) 중 일부 버튼(예를 들어, 161a, 161b, 161c, 도시되지 아니한 다른 버튼도 가능)은 물리 버튼뿐만 아니라 터치 버튼으로도 구현될 수 있다. 또한, 버튼(161) 중 일부 버튼(161a, 161b, 161c)은 터치 스크린(190) 상에 텍스트, 이미지 또는 아이콘 형태로 표시될 수 있다. Some of the buttons 161 (for example, 161a, 161b, 161c, and other buttons not shown) may be implemented as touch buttons as well as physical buttons. Also, some of the buttons 161a, 161b, and 161c may be displayed on the touch screen 190 in the form of text, images, or icons.

제어부(110)는 사용자 입력의 수신에 대응하여 버튼(161)에서부터 전송되는 전기 신호를 수신할 수 있다. 제어부(110)는 수신되는 신호(예를 들어, 버튼(161) 눌림 등)를 이용하여 사용자 입력을 검출할 수 있다. The control unit 110 may receive an electrical signal transmitted from the button 161 in response to reception of a user input. The controller 110 may detect a user input using a received signal (eg, a button 161 is pressed).

도 1 및 도 2에 도시된 버튼(161)의 형태, 위치, 기능, 명칭 등은 설명을 위한 하나의 예이며, 이에 한정되지 않고 변경, 변형 또는 수정할 수 있다는 것은 해당 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 수 있다. The shape, location, function, name, etc. of the button 161 shown in FIGS. 1 and 2 are examples for explanation, and it is not limited thereto, and it is possible to change, modify or modify the common knowledge in the relevant technical field. It can be easily understood by those who have it.

마이크(162)는 제어부(110)의 제어에 의해 외부에서부터 수신되는 음성(voice) 또는 사운드(sound)를 전기적인 신호로 생성한다. 마이크(162)에서 생성된 전기적인 신호는 제어부(110)의 제어에 의해 오디오 코덱에서 변환되어 저장부(175)에 저장되거나 또는 스피커(163)를 통해 출력될 수 있다. The microphone 162 generates a voice or sound received from the outside under the control of the controller 110 as an electrical signal. The electrical signal generated by the microphone 162 may be converted in an audio codec under the control of the control unit 110 and stored in the storage unit 175 or output through the speaker 163.

도 1 및 도 2를 참조하면, 마이크(162)는 휴대 장치(100)의 전면, 측면 및/또는 후면에 하나 또는 둘 이상 위치할 수 있다. Referring to FIGS. 1 and 2, the microphone 162 may be located on one or more of the front, side, and / or rear of the portable device 100.

스피커(163)는 제어부(110)의 제어에 의해 오디오 코덱에 의해 디코딩 되는 다양한 신호(예를 들어, 무선 신호, 방송 신호, 오디오 소스, 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 출력한다. The speaker 163 outputs sound corresponding to various signals (for example, a wireless signal, a broadcast signal, an audio source, a video file or a picture taking) decoded by an audio codec under the control of the controller 110.

도 1 및 도 2를 참조하면, 휴대 장치(100)의 전면, 측면 및/또는 후면에 하나 또는 복수의 스피커(163)가 위치할 수 있다. 또한, 휴대 장치(100)의 측면에 복수의 스피커(도시되지 아니함)가 위치할 수도 있다. 1 and 2, one or a plurality of speakers 163 may be located on the front, side, and / or rear of the portable device 100. Also, a plurality of speakers (not shown) may be located on the side of the portable device 100.

본 발명의 실시예에 따라 스피커(163)는 말 풍선 내 텍스트에서 수신되는 터치의 연속적인 움직임에 따른 다른 화면 변경에 대응되는 청각 피드백을 출력할 수 있다. 예를 들어, 스피커(163)는 제어부(110)의 제어에 의해 말 풍선 내 텍스트에서 수신되는 터치의 연속적인 움직임에 따른 다른 화면 변경에 대응되는 청각 피드백을 출력할 수 있다. According to an embodiment of the present invention, the speaker 163 may output auditory feedback corresponding to another screen change according to the continuous movement of the touch received from the text in the speech balloon. For example, the speaker 163 may output auditory feedback corresponding to another screen change according to the continuous movement of the touch received from the text in the speech balloon under the control of the controller 110.

진동 모터(164)는 제어부(110)의 제어에 의해 전기 신호를 기계적 진동으로 변환한다. 진동 모터(164)는 리니어 진동 모터(linear vibration motor), 바 타입 진동 모터(bar type vibration motor), 코인 타입 진동 모터(coin type vibration motor) 또는 압전 소자 진동 모터(piezoelectric element vibration motor)를 포함할 수 있다. The vibration motor 164 converts an electrical signal into mechanical vibration under the control of the control unit 110. The vibration motor 164 may include a linear vibration motor, a bar type vibration motor, a coin type vibration motor, or a piezoelectric element vibration motor. Can be.

진동 모터(164)는 휴대 장치(100)의 내부에 하나 또는 둘 이상 위치할 수 있다. 진동 모터(164)는 휴대 장치(100)의 전체를 진동시키거나 또는 일 부분만을 국부적으로(locally) 진동시킬 수도 있다. One or more vibration motors 164 may be located inside the portable device 100. The vibration motor 164 may vibrate the entire portable device 100 or may locally vibrate only a part.

본 발명의 실시예에 따라 진동 모터(164)는 말 풍선 내 텍스트에서 수신되는 터치의 연속적인 움직임에 따른 다른 화면 변경에 대응되는 촉각 피드백을 출력할 수 있다. 또한, 진동 모터(164)는 제어부(110)의 제어 명령에 기초하여 기 저장되거나 외부에서부터 수신된 다양한 촉각 피드백(예를 들어, 진동의 세기 및 진동 지속 시간)을 제공할 수 있다. According to an embodiment of the present invention, the vibration motor 164 may output tactile feedback corresponding to another screen change according to the continuous movement of the touch received from the text in the speech balloon. In addition, the vibration motor 164 may provide various tactile feedback (eg, intensity of vibration and duration of vibration) previously stored or received from the outside based on a control command of the controller 110.

커넥터(165)는 휴대 장치(100)와 외부 장치(도시되지 아니함) 또는 전원 소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 예를 들어, 커넥터(165)는 마이크로 USB 타입 커넥터 또는 USB-C 타입 커넥터를 포함할 수 있다. The connector 165 may be used as an interface for connecting the portable device 100 and an external device (not shown) or a power source (not shown). For example, the connector 165 may include a micro USB type connector or a USB-C type connector.

키패드(166)는 휴대 장치(100)의 제어를 위한 사용자 입력을 수신한다. 키패드(166)는 버튼(또는, 키)를 가지고, 터치 스크린(190)내 표시되는 가상 키패드(도시되지 아니함), 사용자 입력에 가해지는 압력(또는, 힘)에 대응되는 압력 터치 키패드(도시되지 아니함) 및 휴대 장치(100)의 전면의 하단 영역에 위치하는 물리적인 키패드(도시되지 아니함) 중 하나를 포함할 수 있다. The keypad 166 receives user input for control of the portable device 100. The keypad 166 has a button (or key), a virtual keypad (not shown) displayed in the touch screen 190, and a pressure touch keypad (not shown) corresponding to pressure (or force) applied to the user input. And a physical keypad (not shown) located in the lower area of the front surface of the portable device 100.

키패드(166)는 근거리 통신을 이용하거나, 또는, 유선으로 연결가능한 별개의 키패드(또는, 키보드, 도시되지 아니함)를 더 포함할 수 있다. The keypad 166 may use a short-range communication, or may further include a separate keypad (or keyboard, not shown) connectable by wire.

입력 펜(167)은 휴대 장치(100)의 측면 및 후면 중 하나에 인입/인출 가능하고, 사용자에 의해 휴대 장치(100)의 터치 스크린(190) 또는 터치 스크린(190)에 표시되는 필기/그리기 어플리케이션 화면(예를 들어, 메모 화면, 노트 패드 화면, 캘린더 화면, 등)을 구성하는(또는, 표시되는) 오브젝트(object, 예를 들어, 메뉴, 텍스트, 이미지, 비디오, 도형, 아이콘 및 단축아이콘) 및/또는 콘텐트(예를 들어, 텍스트 파일, 이미지 파일, 오디오 파일, 비디오 파일, 결제 정보 또는 웹 페이지)를 선택(또는, 터치)하거나 필기(handwriting), 또는 그리기(drawing, painting or sketching)할 수 있다. The input pen 167 can be drawn in / out from one of the side and rear surfaces of the mobile device 100, and the handwriting / drawing displayed on the touch screen 190 or the touch screen 190 of the mobile device 100 by the user The objects (eg, menus, text, images, videos, shapes, icons, and shortcuts) that make up (or display) the application screen (eg, memo screen, note pad screen, calendar screen, etc.) ) And / or content (e.g. text file, image file, audio file, video file, payment information or web page), select (or touch), handwriting, or drawing (drawing, painting or sketching) can do.

센서부(170)는 하나 또는 복수의 센서를 통해 휴대 장치(100)의 상태 및/또는 휴대 장치(100)의 상태(예를 들어, 기울기(또는 각도), 흔들림 등)를 검출할 수 있다. The sensor unit 170 may detect the state of the portable device 100 and / or the state of the portable device 100 (eg, tilt (or angle), shaking, etc.) through one or more sensors.

센서부(170)는 사용자의 휴대 장치(100)에 대한 접근 여부를 검출하는 근접 센서(proximity sensor, 171), 휴대 장치(100) 주변의 빛의 양을 검출하는 조도 센서(illuminance sensor, 172), 또는, 사용자의 지문을 스캔하는 센서(finger print sensor, 173)를 포함할 수 있다. The sensor unit 170 is a proximity sensor (171) that detects whether the user has access to the portable device (100), an illuminance sensor (172) that detects the amount of light around the portable device (100) Or, it may include a sensor that scans a user's fingerprint (finger print sensor 173).

근접 센서(171) 및 조도 센서(172) 중 적어도 하나는 휴대 장치(100)의 전면에 위치할 수 있다. At least one of the proximity sensor 171 and the illuminance sensor 172 may be located on the front surface of the portable device 100.

지문 센서(173)는 휴대 장치(100)의 전면에 위치하는 버튼(예를 들어, 홈 버튼 등), 휴대 장치(100)의 측면에 위치하는 버튼(예를 들어, 전원 버튼 등), 또는 휴대 장치(100)의 후면에 위치할 수 있다. 또한, 지문 센서는 휴대 장치(100)의 터치 스크린(190)의 일부 영역(예를 들어, 홈 버튼(161a)에 인접되는 영역으로 터치 스크린(190)의 내부, 도시되지 아니함)에 위치하며 사용자의 지문을 스캔 할 수도 있다. Fingerprint sensor 173 is a button (for example, a home button, etc.) located on the front of the portable device 100, a button (for example, a power button, etc.) located on the side of the portable device 100, or portable It may be located on the back of the device 100. In addition, the fingerprint sensor is located in a portion of the touch screen 190 of the mobile device 100 (eg, an area adjacent to the home button 161a, inside the touch screen 190, not shown) and the user You can also scan your fingerprint.

센서부(170)는 가속도 센서(acceleration sensor, 도시되지 아니함). 지자기 센서(도시되지 아니함) 또는 자이로 센서(gyro sensor, 도시되지 아니함), 중력 센서(gravity sensor, 도시되지 아니함), 또는 고도계(altimeter, 도시되지 아니함)를 더 포함할 수도 있다. 또한, 센서부(170)는 심박 센서(도시되지 아니함)를 포함하는 생체 신호 센서(도시되지 아니함)를 더 포함할 수도 있다.The sensor unit 170 is an acceleration sensor (acceleration sensor, not shown). It may further include a geomagnetic sensor (not shown) or a gyro sensor (not shown), a gravity sensor (not shown), or an altimeter (not shown). Further, the sensor unit 170 may further include a biosignal sensor (not shown) including a heart rate sensor (not shown).

센서부(170)에 포함되는 센서는 사용자 상태(예를 들어, 체온, 심박수, 뇌파 등) 및 휴대 장치(100) 상태를 검출하고, 검출에 대응되는 전기적인 신호를 생성하여 제어부(110)로 전송한다. 센서부(170)에 포함되는 센서는 휴대 장치(100)의 성능에 따라 추가, 변경, 또는, 삭제될 수 있다는 것은 해당 기술 분야의 통상의 지식을 가지는 자에게 용이하게 이해될 수 있다. The sensor included in the sensor unit 170 detects a user state (eg, body temperature, heart rate, brain wave, etc.) and the state of the portable device 100, and generates an electrical signal corresponding to the detection to the control unit 110 send. The sensor included in the sensor unit 170 may be easily added to, modified, or deleted according to the performance of the portable device 100 to those skilled in the art.

저장부(175)는 제어부(110)의 제어에 의해 구성 요소(110 내지 195)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 휴대 장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램과 제조사에서 제공되거나 외부로부터 다운로드 받은 어플리케이션과 관련된 GUI(graphical user interface), GUI에 대응되는 이미지들, 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다. The storage unit 175 may store signals or data input / output corresponding to the operations of the components 110 to 195 under the control of the control unit 110. The storage unit 175 is a control program for controlling the portable device 100 or the control unit 110, a graphical user interface (GUI) related to an application provided by a manufacturer or downloaded from the outside, images corresponding to the GUI, and user information , Documents, databases or related data.

저장부(175)는 말 풍선 내 텍스트에서 수신되는 터치의 연속적인 움직임에 따른 다른 화면 변경에 대응되게 출력되어 사용자에 의해 인지 가능한 시각 피드백(예를 들어, 비디오 소스 등), 스피커(163)에서 출력되어 사용자에 의해 인지 가능한 청각 피드백(예를 들어, 사운드 소스 등) 및 진동 모터(164)에서 출력되어 사용자에 의해 인지 가능한 촉각 피드백(예를 들어, 햅틱 패턴 등)을 저장할 수 있다. The storage unit 175 is output in response to another screen change according to the continuous movement of the touch received from the text in the speech bubble, and visual feedback (for example, a video source, etc.) recognized by the user is output from the speaker 163. The output may store auditory feedback (eg, a sound source, etc.) recognized by the user and a tactile feedback (eg, a haptic pattern, etc.) output by the vibration motor 164 and recognized by the user.

저장부(175)는 사용자에게 제공되는 피드백의 피드백 제공 시간(예를 들어, 500 ㎳)을 저장할 수 있다. The storage unit 175 may store a feedback providing time (for example, 500 ms) of feedback provided to the user.

본 발명의 실시예에서 ‘저장부’라는 용어는 저장부(175), 제어부(110) 내 롬(112), 램(113) 또는 휴대 장치(100)에 장착되는 메모리 카드(예를 들어, micro SD 카드 등, 도시되지 아니함)를 포함한다. 저장부(175)는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다. In the embodiment of the present invention, the term 'storage unit' refers to a memory card (eg, micro) mounted in the storage unit 175, the controller 110, the ROM 112, the RAM 113, or the portable device 100. SD card, etc., not shown). The storage unit 175 may include a non-volatile memory, a volatile memory, a hard disk drive (HDD), or a solid state drive (SSD).

전원 공급부(180)는 제어부(110)의 제어에 의해 휴대 장치(100)의 구성 요소(110 내지 195)에게 전원을 공급할 수 있다. 전원 공급부(180)는 제어부(110)의 제어에 의해 커넥터(165)와 연결된 유선 케이블(도시되지 아니함)을 통해 외부의 전원 소스(도시되지 아니함)에서부터 입력되는 전원을 휴대 장치(100)의 각 구성 요소들에게 공급할 수 있다. 또한, 전원 공급부(180)는 제어부(110)의 제어에 의해 하나 또는 둘 이상의 배터리(185)를 충전할 수 있다. The power supply unit 180 may supply power to the components 110 to 195 of the portable device 100 under the control of the control unit 110. The power supply unit 180 receives power input from an external power source (not shown) through a wired cable (not shown) connected to the connector 165 under the control of the controller 110, respectively. Components can be supplied. Also, the power supply unit 180 may charge one or more batteries 185 under the control of the control unit 110.

전원 공급부(180)는 케이블을 통해 액세서리 장치(예를 들어, 시계 등, 도시되지 아니함)로 배터리(185)의 충전된 전력을 공급할 수 있다. 또한, 전원 공급부(180)는 제어부(110)의 제어에 의해 배터리(185)와 기능적으로 연결되는 별도의 송신 코일(도시되지 아니함)을 이용하여 다른 휴대 장치 또는, 액세서리 장치(도시되지 아니함)를 무선으로 충전할 수 있다. 무선 충전 방식은 예를 들어, 자기 공진 방식, 전자기파 방식, 또는 자기 유도 방식을 포함할 수 있다. The power supply unit 180 may supply charged power of the battery 185 to an accessory device (for example, a watch or the like, not shown) through a cable. In addition, the power supply unit 180 uses a separate transmission coil (not shown) that is functionally connected to the battery 185 under the control of the control unit 110 to control other portable devices or accessory devices (not shown). It can be charged wirelessly. The wireless charging method may include, for example, a magnetic resonance method, an electromagnetic wave method, or a magnetic induction method.

터치 스크린(190)은 다양한 서비스(예를 들어, 음성 통화, 영상 통화, 데이터 전송, 방송 수신, 사진 촬영, 동영상 보기, 또는, 모바일 결제를 포함하는 전자 결제 등)에 대응되는 GUI(graphical user interface)를 사용자에게 제공할 수 있다. 터치 스크린(190)은 사용자 입력(예를 들어, 터치 등)을 수신하는 터치 패널(도시되지 아니함) 및 화면 표시를 위한 디스플레이 패널(도시되지 아니함)을 포함한다. 터치 패널은 정전 방식 터치 패널(capacitive touch panel), 감압 방식 터치 패널(resistive touch panel) 또는 초음파 방식 터치 패널(ultrasonic touch panel) 등을 포함할 수 있다. The touch screen 190 is a GUI (graphical user interface) corresponding to various services (for example, voice calls, video calls, data transmission, broadcast reception, photo shooting, video viewing, or electronic payment including mobile payment). ) To the user. The touch screen 190 includes a touch panel (not shown) for receiving user input (eg, a touch, etc.) and a display panel (not shown) for screen display. The touch panel may include a capacitive touch panel, a resistive touch panel, or an ultrasonic touch panel.

터치 스크린(190)은 실행되는 어플리케이션 화면 또는 GUI를 통해 입력되는 싱글 터치(또는 멀티 터치) 또는 싱글 터치 제스처(또는 멀티 터치 제스처)에 대응되는 아날로그 신호를 터치 스크린 컨트롤러(195)로 각각 전송할 수 있다. 터치 스크린(190)은 사용자의 신체(예를 들어, 엄지를 포함하는 손가락) 또는 입력 펜(167)을 통해 싱글 터치 또는 멀티 터치를 입력 받을 수 있다. The touch screen 190 may transmit analog signals corresponding to a single touch (or multi-touch) or single touch gesture (or multi-touch gesture) input through an application screen or a GUI to be executed, respectively, to the touch screen controller 195. . The touch screen 190 may receive a single touch or multi-touch through a user's body (eg, a finger including a thumb) or an input pen 167.

본 발명의 실시예에 따른 터치 스크린(190)은 말 풍선 내 텍스트에서 수신되는 터치의 연속적인 움직임에 따른 다른 화면 변경에 대응되는 시각 피드백을 출력할 수 있다. 본 발명의 실시예에서, 디스플레이부는 터치 스크린(190)을 포함하는 의미일 수 있다. The touch screen 190 according to an embodiment of the present invention may output visual feedback corresponding to another screen change according to the continuous movement of the touch received from the text in the speech balloon. In an embodiment of the present invention, the display unit may include a touch screen 190.

사용자가 터치 스크린(190)를 강하게 터치(예를 들어, 임계치를 초과)하는 경우, 터치 스크린(190)의 아래에 위치하고, 터치 스크린(190)에 가해지는 압력을 검출하는 압력 터치 패드(포스 터치 패드, 또는, 압력 센서, 가해지는 압력을 검출가능 전극(또는 전극 층, force touch pad)을 포함, 도시되지 아니함)가 위치할 수 있다. 압력 터치 패드에서 임계치(예를 들어, 터치 스크린(190)에 입력되는 터치에 의해 변경되는 정전 용량의 50% 또는 전압(또는 전류)의 50%)를 초과하는 압력(또는, 터치)이 수신되는 경우, 제어부(110)는 수신되는 압력 터치(또는, 포스 터치, force touch)를 검출할 수 있다. When the user strongly touches the touch screen 190 (eg, exceeds a threshold), a pressure touch pad (force touch) located under the touch screen 190 and detecting pressure applied to the touch screen 190 A pad, or a pressure sensor, may be located on a pressure-detectable electrode (or electrode layer, including a force touch pad, not shown). Pressure (or touch) exceeding a threshold (eg, 50% of the capacitance or 50% of the voltage (or current) changed by the touch input to the touch screen 190) is received at the pressure touch pad In this case, the control unit 110 may detect a received pressure touch (or force touch).

상술된 임계치, 정전 용량 및/또는 전압(또는 전류)는 하나의 실시예이며, 휴대 장치(100)의 구조 및/또는 기능에 따라 변경(예를 들어, 임계치 변경, 검출 가능한 정전 용량 변경 등)될 수 있다는 것은 해당 기술 분야에서 통상의 지식을 가지는 자에게 용이하게 이해될 수 있다. The above-described threshold, electrostatic capacity and / or voltage (or current) is one embodiment, and changes according to the structure and / or function of the portable device 100 (eg, threshold change, detectable electrostatic capacity change, etc.) It can be easily understood by those skilled in the art.

터치 스크린 컨트롤러(195)는 터치 스크린(190)에서부터 수신되는 싱글 터치(또는 멀티 터치) 또는 싱글 터치 제스처(또는 멀티 터치 제스처)에 대응되는 아날로그 신호를 디지털 신호로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치 스크린 컨트롤러(195)에서부터 수신되는 디지털 신호를 이용하여 터치 스크린(190)에 수신되는 터치의 터치 위치(예를 들어, X 좌표와 Y 좌표)를 산출할 수 있다. The touch screen controller 195 converts an analog signal corresponding to a single touch (or multi-touch) or single touch gesture (or multi-touch gesture) received from the touch screen 190 into a digital signal and transmits it to the controller 110. . The controller 110 may calculate a touch position (for example, X and Y coordinates) of a touch received on the touch screen 190 using a digital signal received from the touch screen controller 195.

제어부(110)는 터치 스크린 컨트롤러(195)에서부터 수신된 디지털 신호를 이용하여 터치 스크린(190)을 제어할 수 있다. 예를 들어, 제어부(110)는 입력된 터치에 대응하여 터치 스크린(190)에 표시된 단축 아이콘(또는, 아이콘이라고도 칭함)을 선택되지 않은 다른 단축 아이콘과 구분되게 표시하거나 또는 선택된 단축 아이콘에 대응되는 어플리케이션(예를 들어, 게임 어플리케이션)를 실행하여 터치 스크린(190)에 게임 어플리케이션 화면을 표시할 수 있다. The control unit 110 may control the touch screen 190 using a digital signal received from the touch screen controller 195. For example, the control unit 110 may display a shortcut icon (or, also referred to as an icon) displayed on the touch screen 190 differently from other unselected shortcut icons or correspond to the selected shortcut icon in response to the input touch. The application (eg, a game application) may be executed to display a game application screen on the touch screen 190.

문자 인식 서버(200)는 휴대 장치(100)에서부터 터치의 연속적인 움직임에 대응되는 신호(또는, 패킷)을 통신부(도시되지 아니함)를 통해 수신한다. 문자 인식 서버(200)의 제어부(도시되지 아니함)는 문자 인식 알고리즘을 이용하여 수신된 패킷을 분석하여 문자 인식을 수행할 수 있다. The character recognition server 200 receives a signal (or packet) corresponding to the continuous movement of the touch from the portable device 100 through a communication unit (not shown). The control unit (not shown) of the character recognition server 200 may analyze the received packet using a character recognition algorithm to perform character recognition.

문자 인식 서버(200)의 제어부는 문자 인식 알고리즘을 이용하여 수신된 전기적 신호(또는 전기적 신호에 대응되는 패킷)를 음소, 단어 또는 문장 형태의 텍스트를 포함하는 문자 인식 데이터(또는 텍스트 데이터)로 변환할 수 있다. The control unit of the character recognition server 200 converts the received electrical signal (or a packet corresponding to the electrical signal) into character recognition data (or text data) including phoneme, word, or sentence text using a character recognition algorithm. can do.

문자 인식 서버(200)의 제어부는 텍스트 데이터를 통신부(도시되지 아니함)를 통해 휴대 장치(200) 및/또는 제어 정보 서버(300)로 전송할 수 있다. The control unit of the character recognition server 200 may transmit text data to the mobile device 200 and / or the control information server 300 through a communication unit (not shown).

제어 정보 서버(300)의 제어부(도시되지 아니함)는 텍스트 데이터를 이용하여 제어 정보(예를 들어, 제어 명령어)를 결정(또는, 선택, 변환, 생성)할 수 있다. 제어 정보는 휴대 장치(100)의 화면(또는, 동작, 기능)을 제어할 수 있다. 제어 정보 서버(300)의 제어부는 제어 정보를 통신부(도시되지 아니함)를 통해 휴대 장치(200)로 전송할 수 있다. The control unit (not shown) of the control information server 300 may determine (or select, convert, and generate) control information (eg, a control command) using text data. The control information may control a screen (or operation, function) of the portable device 100. The control unit of the control information server 300 may transmit control information to the portable device 200 through a communication unit (not shown).

본 발명의 실시예에서, 문자 인식 서버(200)는 휴대 장치(100)와 일체형(100-1)으로 구현될 수 있다. 문자 인식 서버(200)는 휴대 장치(100)의 구성 요소(110 내지 195)와 별개인 구성 요소로 휴대 장치(100)에 포함(예를 들어, 일체형 휴대 장치, 100-1)될 수 있다. 예를 들어, 문자 인식 서버(200)는 휴대 장치(100)의 저장부(175)에 내장(embedded)되거나 또는 별도의 저장부(도시되지 아니함)에 구현될 수도 있다. In an embodiment of the present invention, the character recognition server 200 may be implemented as an integral type 100-1 with the portable device 100. The character recognition server 200 may be included in the portable device 100 (eg, an integrated portable device 100-1) as a component separate from the components 110 to 195 of the portable device 100. For example, the character recognition server 200 may be embedded in the storage unit 175 of the portable device 100 or may be implemented in a separate storage unit (not shown).

본 발명의 다른 실시예에서, 별개인 문자 인식 서버(200) 및 제어 정보 서버(300)는 문자 인식 서버(200)와 일체형(200-1)으로 구현될 수 있다. 일체형 문자 인식 서버(200)는 인식된 텍스트 데이터를 제어 정보로 변환할 수 있다. 일체형 문자 인식 서버(200)는 수신되는 텍스트 데이터를 제어 정보로 변환할 수 있다. 일체형 문자 인식 서버(200)는 제어 정보를 통신부를 통해 휴대 장치(100)로 전송할 수 있다. In another embodiment of the present invention, the separate character recognition server 200 and the control information server 300 may be embodied as an integral character 200-1 with the character recognition server 200. The integrated character recognition server 200 may convert the recognized text data into control information. The integrated character recognition server 200 may convert received text data into control information. The integrated character recognition server 200 may transmit control information to the portable device 100 through a communication unit.

도 1 및 도 2에 도시된 휴대 장치(100)의 구성 요소들은 휴대 장치(100)의 성능에 대응하여 적어도 하나의 구성 요소가 추가(예를 들어, 별도 터치 스크린 추가), 삭제(예를 들어, 도 2에서 점선으로 표기되는 구성 요소, 등) 또는 변경될 수 있다는 것은 해당 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 수 있다.Components of the portable device 100 shown in FIGS. 1 and 2 are added (eg, a separate touch screen is added) or deleted (eg, a separate touch screen) corresponding to the performance of the portable device 100. , Components indicated by dashed lines in FIG. 2, etc.) or may be easily changed to those skilled in the art.

도 3은 본 발명의 실시예에 따른 휴대 장치의 화면 제어방법을 나타내는 개략적인 순서도이다. 3 is a schematic flowchart illustrating a screen control method of a portable device according to an embodiment of the present invention.

도 4a 내지 도 4e는 본 발명의 실시예에 따른 휴대 장치의 화면 제어방법의 예를 나타내는 도면이다. 4A to 4E are views illustrating an example of a method for controlling a screen of a portable device according to an embodiment of the present invention.

도 5a 내지 도 5f는 본 발명의 다른 실시예에 따른 휴대 장치의 화면 제어방법의 예를 나타내는 도면이다. 5A to 5F are diagrams illustrating an example of a method for controlling a screen of a portable device according to another embodiment of the present invention.

도 3의 단계(S310)에서, 휴대 장치의 화면에 표시된 채팅 어플리케이션(chat application)에서 채팅이 진행된다. In step S310 of FIG. 3, a chat is performed in a chat application displayed on the screen of the mobile device.

도 4a를 참조하면, 휴대 장치(100)의 터치 스크린(190)에 채팅 어플리케이션 화면(191)이 표시된다. 채팅 어플리케이션 화면(191)은 타이틀 영역(191a), 표시 영역(191b) 및 입력 영역(191c)를 포함할 수 있다. 타이틀 영역(191a)에 채팅하는 상대방 이름(또는, 닉네임, 호칭 등을 통해 상대방을 식별 가능)이 표시될 수 있다. Referring to FIG. 4A, a chat application screen 191 is displayed on the touch screen 190 of the mobile device 100. The chat application screen 191 may include a title area 191a, a display area 191b, and an input area 191c. In the title area 191a, the name of the person to chat with (or, through the nickname, title, etc.) can be displayed.

표시 영역(191b)에 상대방(발신자 및 수신자 중 하나)과 사용자 사이에 주고받는 말 풍선(191b1 내지 191b2)이 표시될 수 있다. 말 풍선에 상대방 또는 사용자에 의해 입력된 텍스트(예를 들어, 자음, 모음, 단어, 문장 또는 단락 등)가 표시될 수 있다. 또한, 말 풍선에 아이콘(단축 아이콘), 심볼, 이모티콘 또는 이미지(예를 들어, 썸네일(thumbnail) 이미지처럼 작은 크기 등)를 더 표시할 수 있다. The speech balloons 191b1 to 191b2 exchanged between the other party (one of the sender and the receiver) and the user may be displayed on the display area 191b. Text (eg, consonants, vowels, words, sentences, or paragraphs) input by the other party or the user may be displayed on the speech balloon. In addition, an icon (shortened icon), a symbol, an emoticon, or an image (eg, a small size such as a thumbnail image) may be further displayed on a speech balloon.

입력 영역(191c)의 텍스트 입력 창(191c1)을 통해 사용자는 텍스트를 입력할 수 있다. 또한, 입력 영역(191c)의 각 입력 창(191c2, 191c3)을 통해 사용자는 아이콘(단축 아이콘), 심볼, 이모티콘 또는 이미지(예를 들어, 썸네일(thumbnail) 이미지처럼 작은 크기 등)등을 입력할 수 있다. 사용자가 입력 창(191c1)을 선택하는 경우, 터치 스크린(190)에 키패드(166)가 표시될 수도 있다. The user may input text through the text input window 191c1 of the input area 191c. In addition, through each input window 191c2, 191c3 of the input area 191c, the user can input an icon (shortcut icon), a symbol, an emoticon, or an image (for example, a small size such as a thumbnail image). Can be. When the user selects the input window 191c1, the keypad 166 may be displayed on the touch screen 190.

사용자는 엄지를 포함하는 신체의 일부 및/또는 입력 펜(167)을 이용하여 키패드(166)를 터치(또는 터치 제스처)하여 텍스트를 입력할 수 있다. 사용자는 마이크(162)를 통해 음성으로 텍스트를 입력할 수 있다. 또한, 사용자는 센서(170)를 통해 모션으로 텍스트를 입력할 수도 있다. The user may input text by touching (or touching gesture) the keypad 166 using a part of the body including a thumb and / or an input pen 167. The user may input text by voice through the microphone 162. In addition, the user may input text in motion through the sensor 170.

본 발명의 다른 실시예인 도 5a를 참조하면, 휴대 장치의 화면에 표시된 채팅 어플리케이션에서 채팅이 진행된다. Referring to FIG. 5A, which is another embodiment of the present invention, the chat is performed in the chat application displayed on the screen of the mobile device.

표시 영역(191b-1)에 상대방(발신자 및 수신자 중 하나)과 사용자 사이에 주고받는 말 풍선(191b1-1 내지 191b2-1)이 표시될 수 있다. Speech balloons 191b1-1 to 191b2-1 exchanged between the other party (one of the sender and the receiver) and the user may be displayed on the display area 191b-1.

도 3의 단계(S310)의 휴대 장치의 화면에 표시된 채팅 어플리케이션에서 채팅이 진행(도 5a에 대응)은 도 3의 단계(S310)의 휴대 장치의 화면에 표시된 채팅 어플리케이션에서 채팅이 진행(도 4a에 대응)과 실질적으로 유사하므로 중복되는 설명은 생략된다. Chat proceeds in the chat application displayed on the screen of the mobile device of step S310 of FIG. 3 (corresponding to FIG. 5A). Chatting proceeds in the chat application displayed on the screen of the mobile device of step S310 of FIG. 3 (FIG. 4A) Corresponds to), so duplicate description is omitted.

도 3의 단계(S320)에서, 말 풍선 내 텍스트에서 터치가 수신된다. In step S320 of FIG. 3, a touch is received in the text in the speech balloon.

도 4a 및 도 4b를 참조하면, 사용자는 말 풍선(191b11)에 터치(또는, 호버링 포함, 410)를 입력한다. 터치(410)는 탭(tap) 또는 더블 탭(double tap)을 포함할 수 있다. 사용자는 채팅 어플리케이션 화면에 표시되는 말 풍선(191b1-1 내지 191b2-1)에 각각 터치를 할 수도 있다. 채팅 어플리케이션 화면에 표시되는 모든 말 풍선(예를 들어, 사용자 말 풍선, 또는 상대방(예를 들어, 김 팀장님) 말 풍선)에 사용자는 터치할 수 있다. 4A and 4B, the user inputs a touch (or hovering included, 410) to the speech balloon 191b11. The touch 410 may include a tap or a double tap. The user may touch each of the speech balloons 191b1-1 to 191b2-1 displayed on the chat application screen. The user can touch any speech balloon displayed on the chat application screen (for example, a user speech balloon or a speech balloon of the other party (eg, Kim's team leader)).

제어부(또는, 프로세서)는 터치 스크린(190) 및 터치 스크린 컨트롤러(195)를 이용하여 터치(410)를 검출할 수 있다. 제어부(또는, 프로세서)는 터치 스크린 컨트롤러(195)에서부터 수신되는 전기 신호를 이용하여 터치(410)에 대응되는 터치 위치(410a, 예를 들어, X1 좌표와 Y1 좌표)를 산출할 수 있다. 산출된 터치 위치(410a)는 최초 터치 위치로 칭해질 수 있다. The control unit (or processor) may detect the touch 410 using the touch screen 190 and the touch screen controller 195. The controller (or the processor) may calculate a touch position 410a corresponding to the touch 410 (for example, X1 coordinates and Y1 coordinates) by using an electrical signal received from the touch screen controller 195. The calculated touch position 410a may be referred to as an initial touch position.

제어부(110)는 터치 위치(410a), 터치의 검출 시간(예를 들어, 오전 9시 35분), 터치의 압력 값, 및 터치에 대응되는 전기 신호 등에 대응되는 압력 터치 정보를 저장부(175)에 저장할 수 있다. 터치(410)는 예를 들어, 엄지를 포함하는 손가락들 중 하나, 또는 입력 펜(167)에 의해 발생할 수 있다. The controller 110 stores the pressure touch information corresponding to the touch position 410a, the detection time of the touch (for example, 9:35 am), the pressure value of the touch, and an electrical signal corresponding to the touch (175) ). The touch 410 can be caused by, for example, one of the fingers including the thumb, or the input pen 167.

문자 인식 대상 텍스트에서 검출된 최초 터치 위치(410a)에 커서(도시되지 아니함)가 표시될 수 있다. 표시된 커서에서부터 터치의 연속적인 움직임(예를 들어, 최초 위치(410a)에서부터 최후 위치(410b)까지의 이동, 410-1)에 대응하여 문자 인식 대상 텍스트가 선택될 수도 있다. A cursor (not shown) may be displayed at the initial touch position 410a detected in the text to be recognized. The text to be recognized may be selected in response to a continuous movement of the touch from the displayed cursor (eg, movement from the initial position 410a to the last position 410b, 410-1).

사용자는 말 풍선(191b11)에 압력 터치(도시되지 아니함)를 입력한다. 제어부(110)는 압력 터치 패널(도시되지 아니함), 터치 스크린(190) 및/또는 터치 스크린 컨트롤러(195)를 이용하여 압력 터치를 검출할 수도 있다. 압력 터치는 압력 터치 패널을 통해 검출될 수 있다. 압력 터치 패널은 예를 들어, 터치 스크린(190)의 하단, 터치 스크린(190)의 내부, 디스플레이 패널(도시되지 아니함)의 하단, 또는 터치 패널(도시되지 아니함)의 상단을 포함할 수 있다. 압력 터치 패널은 터치 스크린(190)과 별개로 구별될 수 있다. 또한, 압력 터치 패널은 터치 스크린(190)에 포함될 수도 있다. The user inputs a pressure touch (not shown) into the speech balloon 191b11. The controller 110 may detect a pressure touch using a pressure touch panel (not shown), a touch screen 190 and / or a touch screen controller 195. The pressure touch can be detected through the pressure touch panel. The pressure touch panel may include, for example, the bottom of the touch screen 190, the interior of the touch screen 190, the bottom of the display panel (not shown), or the top of the touch panel (not shown). The pressure touch panel may be distinguished from the touch screen 190 separately. Also, the pressure touch panel may be included in the touch screen 190.

압력 터치의 압력은 압력 터치 패널을 통해 검출될 수 있다. 압력 터치 패널은 입력되는 압력에 대응되는 전기적 신호(예를 들어, 전압인 경우, 0 V ~ 3 V 사이, 휴대 장치에 따라 다름)를 제어부(110)로 전송할 수 있다. 제어부(110)는 수신된 전기적 신호를 이용하여 압력을 산출할 수 있다. 또한, 제어부(110)는 수신된 전기적 신호에 대응되는 압력을 매핑(mapping)할 수도 있다. The pressure of the pressure touch can be detected through the pressure touch panel. The pressure touch panel may transmit an electrical signal corresponding to the input pressure (eg, in the case of voltage, between 0 V and 3 V, depending on the portable device) to the control unit 110. The control unit 110 may calculate the pressure using the received electrical signal. Also, the control unit 110 may map the pressure corresponding to the received electrical signal.

본 발명의 다른 실시예인 도 5a 및 도 5b를 참조하면, 말 풍선 내 텍스트에서 터치가 수신된다. 5A and 5B, which are other embodiments of the present invention, a touch is received in a text in a speech balloon.

제어부(110)는 터치 스크린(190) 및 터치 스크린 컨트롤러(195)를 이용하여 터치(420)를 검출할 수 있다. 제어부(110)는 터치 스크린 컨트롤러(195)에서부터 수신되는 전기 신호를 이용하여 터치(420)에 대응되는 터치 위치(420a, 예를 들어, X2 좌표와 Y2 좌표)를 산출할 수 있다. 산출된 터치 위치(420a)는 최초 터치 위치로 칭해질 수 있다. The controller 110 may detect the touch 420 using the touch screen 190 and the touch screen controller 195. The control unit 110 may calculate a touch position 420a (eg, X2 coordinates and Y2 coordinates) corresponding to the touch 420 using the electric signal received from the touch screen controller 195. The calculated touch position 420a may be referred to as an initial touch position.

도 3의 단계(S320)의 말 풍선 내 텍스트에서 터치가 수신(도 5a 및 도 5b에 대응)은 도 3의 단계(S320)의 말 풍선 내 텍스트에서 터치가 수신(도 4a 및 도 4b에 대응)과 실질적으로 유사하므로 중복되는 설명은 생략된다. Touch is received in the text in the speech balloon in step S320 of FIG. 3 (corresponding to FIGS. 5A and 5B). Touch is received in the text in the speech balloon in step S320 in FIG. 3 (corresponding to FIGS. 4A and 4B) ), So a duplicate description is omitted.

도 3의 단계(S330)에서, 검출된 터치의 연속적인 움직임이 수신된다. In step S330 of FIG. 3, a continuous movement of the detected touch is received.

도 4c 및 도 4d를 참조하면, 사용자는 말 풍선(191b11)에 터치의 연속적인 움직임(예를 들어, 연속되는 터치(410a에서부터 410b까지)에 대응되는 복수의 X 좌표와 Y 좌표, 410-1)을 입력한다. 또한, 사용자는 최초 터치 위치(410a)에서 설정 시간(예를 들어, 500 ㎳ 이하, 변경 가능)동안 터치(410)를 유지할 수 있다. 최초 터치 위치(410a)에서 터치(410)를 유지한 후, 사용자는 터치의 연속적인 움직임(예를 들어, 연속되는 터치(410a에서부터 410b까지)에 대응되는 복수의 X 좌표와 Y 좌표, 410-1)을 입력할 수 있다. Referring to FIGS. 4C and 4D, a user may use a plurality of X and Y coordinates corresponding to a continuous movement of a touch on a speech balloon 191b11 (for example, a continuous touch (from 410a to 410b)), 410-1. ). In addition, the user may maintain the touch 410 for a set time (for example, 500 µs or less, changeable) at the initial touch position 410a. After maintaining the touch 410 at the initial touch position 410a, the user may have a plurality of X and Y coordinates corresponding to a continuous movement of the touch (eg, continuous touches (410a to 410b)), 410- 1) can be entered.

제어부(110)는 터치 스크린(190) 및 터치 스크린 컨트롤러(195)를 이용하여 말 풍선(191b11)내 터치의 연속적인 움직임(410-1)을 검출할 수 있다. 제어부(110)는 터치 스크린 컨트롤러(195)에서부터 수신되는 전기 신호를 이용하여 말 풍선(191b11)내 터치의 연속적인 움직임 위치(예를 들어, 복수의 X 좌표와 복수의 Y 좌표, 410a, 410b, 및 410a과 410b 사이의 좌표들)을 검출할 수 있다. The control unit 110 may detect the continuous movement 410-1 of the touch in the speech balloon 191b11 using the touch screen 190 and the touch screen controller 195. The control unit 110 uses the electrical signal received from the touch screen controller 195 to continuously move the positions of the touch in the speech balloon 191b11 (for example, a plurality of X coordinates and a plurality of Y coordinates, 410a, 410b, And coordinates between 410a and 410b).

말 풍선(191b11)내 터치의 연속적인 움직임(예를 들어, 최초 위치(410a)에서부터 최후 위치(410b)까지의 이동, 410-1)은 터치 스크린(190)에 입력되는 터치 제스처(touch gesture)를 의미할 수 있다. 말 풍선(191b11)내 터치의 연속적인 움직임(예를 들어, 최초 위치(410a)에서부터 말 풍선과 표시 영역의 경계(또는, 경계선) 방향으로 이동, 410-1)은 터치 스크린(190)에 입력되는 터치 제스처를 의미할 수 있다. The continuous movement of the touch in the speech balloon 191b11 (for example, the movement from the initial position 410a to the last position 410b, 410-1) is a touch gesture input to the touch screen 190. Can mean The continuous movement of the touch in the speech balloon 191b11 (for example, moving from the initial position 410a toward the boundary (or boundary) between the speech balloon and the display area, 410-1) is input to the touch screen 190 Being a touch gesture.

본 발명의 실시예에서, 터치의 연속적인 움직임(410-1)은 최초 위치(410a)를 기준으로 시작하는 스와이프(swipe), 드래그(drag), 플릭(flick) 또는 회전(rotate)을 포함할 수 있다. 또한, 터치의 연속적인 움직임(410-1)은 싱글 터치의 연속적인 움직임뿐만 아니라 최초 위치(410a) 및 다른 위치(도시되지 아니함)를 기준으로 시작하는 멀티 터치의 연속적인 움직임을 포함할 수 있다. In an embodiment of the present invention, the continuous movement of the touch 410-1 includes a swipe, drag, flick, or rotation starting from the initial position 410a. can do. Further, the continuous movement of the touch 410-1 may include continuous movement of the multi-touch starting from the initial location 410a and other locations (not shown) as well as the continuous movement of the single touch. .

도 4b 내지 도 4d를 참조하면, 터치의 연속적인 움직임(410-1)에 대응하여 말 풍선 내 말 풍선(191b11) 내 모든 텍스트 및 일부 텍스트가 선택될 수 있다. 터치의 연속적인 움직임(410-1)에 대응하여 최초 터치 위치(410a)에서부터 문자 인식 대상인 텍스트(또는, 문자 인식 대상 텍스트)의 선택이 표시(또는, 시작)될 수 있다. 4B to 4D, all text and some text in the speech balloon 191b11 in the speech balloon may be selected in response to the continuous movement 410-1 of the touch. In response to the continuous movement of the touch 410-1, selection of the text (or text to be recognized) from the initial touch position 410a may be displayed (or started).

터치의 연속적인 움직임(410-1)에 대응하여 최초 터치 위치(410a)에서부터 문자 인식 대상인 텍스트(또는, 문자 인식 대상 텍스트)가 선택될 수 있다. 터치의 연속적인 움직임(410-1)에 대응하여 최초 터치 위치(410a)의 문자 인식 대상인 텍스트(또는, 문자 인식 대상 텍스트)의 시작 위치가 문자 인식 비대상(또는, 선택되지 않은)인 텍스트와 구별(예를 들어, 글꼴(font) 색상 변경, 글꼴 굵기 변경, 또는 글꼴 강조 색(high-light) 추가 등)될 수 있다. 터치의 연속적인 움직임(410-1)에 대응하여 최초 터치 위치(410a)에 표시된 커서에서부터 선택되는 문자 인식 대상인 텍스트(또는, 문자 인식 대상 텍스트)는 문자 인식 비대상(또는, 선택되지 않은)인 텍스트와 구별(예를 들어, 글꼴(font) 색상 변경, 글꼴 굵기 변경, 또는 글꼴 강조 색(high-light) 추가 등)될 수 있다. In response to the continuous movement of the touch 410-1, text (or text to be recognized) that is a character recognition object may be selected from the initial touch position 410a. In response to the continuous movement of the touch 410-1, the starting position of the text (or text recognition target text), which is the character recognition target of the initial touch position 410a, and text that is not the character recognition target (or not selected) It can be distinguished (for example, changing the font color, changing the font thickness, or adding a font highlight color). In response to the continuous movement of the touch 410-1, the text (or text to be recognized) selected as a character recognition target selected from the cursor displayed at the initial touch position 410a is a character recognition non-target (or not selected). It can be distinguished from text (eg, changing font color, changing font thickness, or adding font highlight color).

최초 터치 위치(410a)의 문자 인식 대상인 텍스트(또는, 문자 인식 대상 텍스트)는 최초 터치 위치(410a)에 위치하는 자음, 모음, 자음과 모음을 포함하는 음소(phoneme) 또는, 단어(word)를 포함할 수 있다. The text (or text to be recognized) that is the character recognition target of the initial touch position 410a is a phoneme or word including a consonant, vowel, consonant and vowel located at the initial touch position 410a. It can contain.

최초 터치 위치(410a)는 '서울특별시'의 '서'에 위치할 수 있다. 최초 터치 위치(410a)에 대응하여 선택되는 텍스트는 '서'일 수 있다. 최초 터치 위치(410a)에서부터 시작되는 터치의 연속적인 움직임(410-1)의 진행에 의해 선택되는 텍스트는 '서울특별시'일 수 있다. 말 풍선(191b11)내 '서울특별시' 중 어느 위치에서든 최초 터치 위치(410a)가 검출되는 경우, 최초 터치 위치(410a)에서부터 시작되는 터치의 연속적인 움직임(410-1)의 진행에 의해 선택되는 텍스트는 '서울특별시'일 수 있다. The initial touch location 410a may be located at 'West' of 'Seoul Metropolitan City'. The text selected in response to the initial touch position 410a may be 'standing'. The text selected by the progress of the continuous movement 410-1 of the touch starting from the initial touch position 410a may be 'Seoul Metropolitan City'. When the first touch position 410a is detected at any position of 'Seoul Metropolitan City' in the speech balloon 191b11, it is selected by the progress of the continuous movement 410-1 of the touch starting from the first touch position 410a. The text may be 'Seoul Metropolitan City'.

최초 터치 위치(410a)에서부터 최후 터치 위치(410b)까지 터치의 연속적인 움직임(410-1)에 대응하여 선택되는 텍스트(410s)는 '서울특별시 강남구 역삼1동 736-32'일 수 있다. 최초 터치 위치(410a)에서부터 최후 터치 위치(410b)까지 터치의 연속적인 움직임(410-1)에 대응하여 선택되는 텍스트(410s)는 '서울특별시 강남구 역삼1동 736-32'로 확장될 수 있다. 또한, 최초 터치 위치(410a)에서부터 최후 터치 위치(410b)까지 터치의 연속적인 움직임(410-1)에 대응하여 선택되는 텍스트는 '서울특별시 강남구' 및 다음 라인의 '역삼1동 736-32'까지 확장될 수 있다. 터치의 연속적인 움직임(410-1)에 따라 최종적으로 선택된 텍스트(410s)는 '서울특별시 강남구 역삼1동 736-32' 일 수 있다. The text 410s selected from the initial touch position 410a to the last touch position 410b in response to the continuous movement 410-1 of the touch may be 736-32, Yeoksam 1-dong, Gangnam-gu, Seoul. The text 410s selected from the initial touch position 410a to the last touch position 410b in response to the continuous movement 410-1 of the touch may be extended to 736-32 Yeoksam 1-dong, Gangnam-gu, Seoul. . In addition, the text selected in response to the continuous movement 410-1 of the touch from the first touch position 410a to the last touch position 410b is 'Gangnam-gu, Seoul' and 'Yeoksam 1-dong 736-32' on the next line. Can be extended to The text 410s finally selected according to the continuous movement 410-1 of the touch may be 736-32, Yeoksam 1-dong, Gangnam-gu, Seoul.

또한, 최초 터치 위치(410a)에서부터 최후 터치 위치(410b)까지 터치의 연속적인 움직임(410-1)에 대응하여 선택되는 텍스트는 말 풍선(191b11) 내 입력되어 표시되는 모든 텍스트(예를 들어, '주소는 서울특별시 강남구 역삼1동 736-32입니다')일 수 있다. 사용자는 문자 인식 대상 텍스트의 선택을 위해 최초 터치 위치를 말 풍선(191b11) 내에 위치하도록 터치할 수 있다. In addition, the text selected in response to the continuous movement 410-1 of the touch from the initial touch position 410a to the last touch position 410b is inputted and displayed in the speech balloon 191b11 (for example, 'Address can be 736-32, Yeoksam 1-dong, Gangnam-gu, Seoul'). The user may touch the initial touch position to be located in the speech balloon 191b11 for selecting text to be recognized.

터치의 연속적인 움직임(410-1)에 따라 최종적으로 선택된 텍스트(예를 들어, '주소는 서울특별시 강남구 역삼1동 736-32입니다')는 제어부(110)의 제어에 의해 저장부(175)에 저장(또는, 임시 저장)될 수 있다. The text finally selected according to the continuous movement of the touch (410-1) (for example, 'address is 736-32, Yeoksam 1-dong, Gangnam-gu, Seoul') is the storage unit 175 under the control of the control unit 110 It can be stored (or temporarily stored).

사용자는 터치의 연속적인 움직임(410-1)의 최후 위치(410b)에서 터치(말 풍선(191b11, 또는 터치 스크린(190))와 접촉)를 해제(touch-off)될 수 있다. 터치의 연속적인 움직임(410-1)의 방향은 상측, 하측, 좌측 및 우측 중 하나의 방향일 수 있다. The user may be touch-off the touch (contact with the speech balloon 191b11, or the touch screen 190) at the last position 410b of the continuous movement 410-1 of the touch. The direction of the continuous movement 410-1 of the touch may be one of upper, lower, left and right.

본 발명의 다른 실시예인 도 5c 및 도 5d를 참조하면, 검출된 터치의 연속적인 움직임이 수신된다. 5C and 5D, which are other embodiments of the present invention, a continuous movement of the detected touch is received.

사용자는 말 풍선(191b11-1)에 터치의 연속적인 움직임(예를 들어, 연속되는 터치(420a에서부터 420b까지)에 대응되는 복수의 X 좌표와 Y 좌표, 420-1)을 입력한다. 또한, 사용자는 최초 터치 위치(420a)에서 설정 시간(예를 들어, 500 ㎳ 이하, 변경 가능)동안 터치(420)를 유지할 수 있다. 최초 터치 위치(420a)에서 터치(420)를 유지한 후, 사용자는 터치의 연속적인 움직임(예를 들어, 연속되는 터치(420a에서부터 420b까지)에 대응되는 복수의 X 좌표와 Y 좌표, 420-1)을 입력할 수 있다. The user inputs a plurality of X coordinates and Y coordinates 420-1 corresponding to continuous movements of a touch (for example, continuous touches 420a to 420b) into the speech balloon 191b11-1. In addition, the user may maintain the touch 420 for a set time (for example, 500 µs or less, changeable) at the initial touch position 420a. After maintaining the touch 420 at the initial touch position 420a, the user may have a plurality of X and Y coordinates corresponding to a continuous movement of the touch (eg, continuous touches (420a to 420b)), 420- 1) can be entered.

도 5b 내지 도 5d를 참조하면, 터치의 연속적인 움직임(420-1)에 대응하여 최초 터치 위치(420a)에서부터 텍스트가 선택될 수 있다. 5B to 5D, text may be selected from the initial touch position 420a in response to a continuous movement 420-1 of the touch.

*최초 터치 위치(420a)는 '설정'의 '설'에 위치할 수 있다. 최초 터치 위치(420a)에서부터 최후 터치 위치(420b)까지 터치의 연속적인 움직임(420-1)에 대응하여 선택되는 텍스트는 '설정 화면에서 Wi-Fi'로 확장될 수 있다. * The first touch position 420a may be located in the 'set' of the 'setting'. The text selected in response to the continuous movement 420-1 of the touch from the initial touch position 420a to the last touch position 420b may be extended to 'Wi-Fi' on the setting screen.

사용자는 터치의 연속적인 움직임(420-1)의 최후 위치(420b)에서 터치(말 풍선(191b11-1, 또는 터치 스크린(190))사이의 접촉)를 해제(touch-off)할 수 있다.The user may touch-off the touch (contact between the speech balloon 191b11-1, or the touch screen 190) at the last position 420b of the continuous movement 420-1 of the touch.

도 3의 단계(S330)의 터치의 연속적인 움직임(420-1)에 대응하여 문자 인식 대상인 텍스트의 선택(도 5b 및 도 5d에 대응)은 도 3의 단계(S330)의 터치의 연속적인 움직임(410-1)에 대응하여 문자 인식 대상인 텍스트의 선택(도 4b 및 도 4d에 대응)과 실질적으로 유사하므로 중복되는 설명은 생략된다.In response to the continuous movement 420-1 of the touch in step S330 of FIG. 3, the selection of the text to be recognized as a character (corresponding to FIGS. 5B and 5D) is the continuous movement of the touch of step S330 of FIG. Corresponding to (410-1) is substantially similar to the selection of the text to be recognized as a character (corresponding to FIGS. 4B and 4D), a duplicate description is omitted.

도 3의 단계(S340)에서, 선택된 텍스트의 문자 인식이 진행된다. In step S340 of FIG. 3, character recognition of the selected text is performed.

도 4d를 참조하면, 제어부(110)는 저장된 텍스트에 대응되는 신호를 무선 통신 규격에 따라 문자 인식 서버(200)에서 수신할 수 있도록 전송(또는, 변환하여 전송)할 수 있다. 또한, 제어부(110)는 저장된 문자 인식 대상인 텍스트에 대응되는 신호를 포함하는 패킷(packet)을 전송하도록 통신부(130)를 제어할 수 있다. 패킷은 무선 통신 규격 또는, 근거리 통신의 규격을 따르는 패킷일 수 있다. Referring to FIG. 4D, the controller 110 may transmit (or convert and transmit) a signal corresponding to the stored text to be received by the character recognition server 200 according to a wireless communication standard. In addition, the control unit 110 may control the communication unit 130 to transmit a packet including a signal corresponding to the text that is the object to be stored. The packet may be a wireless communication standard or a packet conforming to the standard of short-range communication.

문자 인식 서버(200)의 제어부(도시되지 아니함)는 수신된 패킷에 대해 문자 인식 알고리즘을 이용하여 문자 인식을 수행한다. 문자 인식 알고리즘은 패킷에 포함된 텍스트를 음소 단위, 단어 단위 또는 문장 단위로 분할하여 기준 패턴(또는, 표준 패턴)와 비교하여 음소(단어, 또는, 문장)를 인식할 수 있다. 문자 인식 알고리즘은 패턴 매칭법(pattern matching), 구조 분석법(structure analysis), 특징 매칭법(feature matching), 또는 획 분석법(stroke analysis)을 포함할 수 있다. 상술된 문자 인식 알고리즘은 용도(또는 목적)에 따라 선택적 또는 구분되게 사용될 수 있다. The control unit (not shown) of the character recognition server 200 performs character recognition on the received packet using a character recognition algorithm. The character recognition algorithm may recognize a phoneme (word, or sentence) by dividing the text included in the packet into phoneme units, word units, or sentence units and comparing it with a reference pattern (or standard pattern). Character recognition algorithms may include pattern matching, structure analysis, feature matching, or stroke analysis. The character recognition algorithm described above may be used selectively or separately depending on the purpose (or purpose).

문자 인식 서버(200)의 저장부(도시되지 아니함)는 특정 음소(특정 단어, 또는 특정 문장 등)에 대응되는 음소 데이터 베이스를 저장(갱신(update) 가능)할 수 있다. 문자 인식 서버(200)의 제어부는 인식된 음소 및 기 저장된 데이터 베이스를 이용하여 문자 데이터(선택된 텍스트에 대응)를 생성할 수 있다. 문자 인식 서버(200)의 제어부는 단어 또는 문장 형태인 문자 인식 데이터를 생성할 수 있다. The storage unit (not shown) of the character recognition server 200 may store (update) a phoneme database corresponding to a specific phoneme (a specific word or a specific sentence). The controller of the character recognition server 200 may generate character data (corresponding to the selected text) using the recognized phoneme and a pre-stored database. The controller of the character recognition server 200 may generate character recognition data in the form of words or sentences.

문자 인식 서버(200)의 제어부는 생성된 문자 데이터를 저장부에 저장할 수 있다. 문자 인식 서버(200)의 제어부는 문자 데이터를 제어 정보(이후 설명)보다 먼저 통신부(도시되지 아니함)를 통해 휴대 장치(100)로 전송할 수 있다. 문자 인식 서버(200)의 제어부는 텍스트 데이터를 통신부(도시되지 아니함)를 통해 제어 정보 서버(300)로 전송할 수 있다. The control unit of the character recognition server 200 may store the generated character data in a storage unit. The control unit of the character recognition server 200 may transmit the character data to the portable device 100 through the communication unit (not shown) before the control information (to be described later). The control unit of the character recognition server 200 may transmit text data to the control information server 300 through a communication unit (not shown).

제어 정보 서버(300)의 제어부는 문자 데이터를 이용하여 제어 정보(예를 들어, 제어 명령어)로 변환할 수 있다. 문자 데이터는 문자 인식 서버(200) 또는 일체형 휴대 장치(100-1)엥서부터 수신될 수 있다. 제어 정보는 휴대 장치(100)의 화면(또는, 동작, 기능)을 제어할 수 있다. 또한, 제어 정보는 문자 인식 서버(200)의 화면(또는, 동작, 기능)을 제어할 수도 있다. The control unit of the control information server 300 may convert to control information (for example, a control command) using text data. The text data may be received from the text recognition server 200 or the integrated portable device 100-1. The control information may control a screen (or operation, function) of the portable device 100. Also, the control information may control a screen (or an operation or function) of the character recognition server 200.

제어 정보 서버(300)는 제어 정보 데이터 베이스를 포함할 수 있다. 제어 정보 서버(300)는 제어 정보 데이터 베이스를 저장부에 저장할 수 있다. The control information server 300 may include a control information database. The control information server 300 may store a control information database in a storage unit.

제어 정보 서버(300)의 제어부는 저장된 제어 정보 데이터 베이스를 이용하여 인식된 텍스트 데이터에 대응되는 제어 정보를 결정(또는, 선택, 변환, 생성)할 수 있다. 제어 정보 서버(300)는 텍스트 데이터 및 제어 정보 데이터 베이스를 이용하여 휴대 장치(100)를 제어하는 제어 정보(예를 들어, 휴대 장치(100)가 파싱(parsing) 가능한)를 결정(또는, 선택, 변환, 생성)할 수도 있다. 예를 들어, 말 풍선(191d11) 내 텍스트에서 터치의 연속적인 움직임이 수신되는 경우, 휴대 장치(100)는 통신부를 통해 선택된 텍스트에 대응되는 전기적 신호(예를 들어, 디지털 신호, 아날로그 신호, 또는, 패킷)를 문자 인식 서버(100)로 전송할 수 있다. 문자 인식 서버(200)는 수신된 전기적 신호(또는 패킷)를 문자 인식을 통해 텍스트 데이터(예를 들어, '서울특별시 강남구 역삼1동 736-32')로 변환할 수 있다. 문자 인식 서버(200)는 텍스트 데이터를 이용하여 제어 정보를 결정(또는, 선택, 변환, 생성)할 수 있다. The control unit of the control information server 300 may determine (or select, convert, and generate) control information corresponding to the recognized text data using the stored control information database. The control information server 300 determines (or selects) control information (eg, the mobile device 100 is parsable) that controls the mobile device 100 using text data and a control information database. , Transform, create). For example, when a continuous movement of the touch is received in the text in the speech balloon 191d11, the portable device 100 may receive an electrical signal (eg, a digital signal, an analog signal, or the like) through the communication unit. , Packet) to the character recognition server 100. The character recognition server 200 may convert the received electrical signal (or packet) into text data through character recognition (eg, 736-32 Yeoksam 1-dong, Gangnam-gu, Seoul). The character recognition server 200 may determine (or select, convert, and generate) control information using text data.

상술된 제어 정보는 텍스트 데이터(예를 들어, '서울특별시 강남구 역삼1동 736-32')에 대응되는 위치를 실행되는(또는 기 실행된) 지도 어플리케이션의 화면에 표시하도록 할 수 있다. 상술된 제어 정보는 텍스트 데이터(예를 들어, '서울특별시 강남구 역삼1동 736-32')에 대응되는 상호(shop(company) name)을 실행되는(또는 기 실행된) 웹 브라우저의 화면에 표시하도록 할 수 있다. 상술된 제어 정보에 대응되는 어플리케이션은 이에 한정되지 않고 설정(또는, 링크된)에 따라 다양한 어플리케이션이 실행될 수 있다. The above-described control information may be displayed on a screen of a map application that is executed (or previously executed) corresponding to text data (for example, 736-32, Yeoksam 1-dong, Gangnam-gu, Seoul). The above-described control information is displayed on the screen of a web browser executing (or previously executed) a business name (shop (company) name) corresponding to text data (for example, 736-32 Yeoksam 1-dong, Gangnam-gu, Seoul) You can do it. The application corresponding to the above-described control information is not limited to this, and various applications may be executed according to a setting (or linked).

제어 정보 서버(300)의 제어부는 통신부를 통해 제어 정보를 휴대 장치(100)로 전송할 수 있다. The control unit of the control information server 300 may transmit control information to the portable device 100 through the communication unit.

문자 인식 서버(200)에서 문자 인식이 수행되는 경우, 휴대 장치(100)의 화면에 문자 인식 서버(200)에서 진행되는 문자 인식에 대응되는 텍스트(예를 들어, '문자 인식 중'), 이미지('문자 인식 중'에 대응되는), 심볼 및 플래시를 포함하는 동영상('문자 인식 중'에 대응되는)이 표시될 수 있다. When character recognition is performed by the character recognition server 200, text corresponding to character recognition performed by the character recognition server 200 on the screen of the mobile device 100 (for example, 'during character recognition'), an image A video (corresponding to 'recognizing text') and a video including a symbol and flash (corresponding to 'recognizing text') may be displayed.

제어 정보 서버(300)에서 제어 정보가 결정(또는, 선택, 변환, 생성)되는 경우, 휴대 장치(100)의 화면에 제어 정보 서버(300)에서 제어 정보 결정에 대응되는 텍스트(예를 들어, '제어 정보 결정 중'), 이미지('제어 정보 결정 중'에 대응되는), 심볼 및 플래시를 포함하는 동영상('제어 정보 결정 중'에 대응되는)이 표시될 수 있다. When control information is determined (or selected, converted, or generated) in the control information server 300, text corresponding to the control information determination in the control information server 300 on the screen of the mobile device 100 (for example, A 'determining control information'), an image (corresponding to 'determining control information'), a video including a symbol and a flash (corresponding to 'determining control information') may be displayed.

아래의 [표 1]은 제어 정보의 일 예일 수 있다. Table 1 below may be an example of control information.

No.No. 문자 인식 대상 텍스트
Text to be recognized
문자 인식 타입Character recognition type 결정된 어플리케이션 이름Determined application name
1One OO시 XX구 동 787-8
YY역 부근
ZZ대학교 정문
787-8, XX-gu, OO City
Near YY Station
ZZ University Main Gate
주소
address
지도 어플리케이션Map application
22 AA 레스토랑(BB동)
AA Restaurant (BB Building)
상호Mutual 지도 어플리케이션Map application
33 여권 사진
Passport photo
사진Photo 사진 어플리케이션Photography application
44 환경 설정
Wi-Fi
Preferences
Wi-Fi
화면screen 환경 설정 화면Preferences screen
……… … ……
… …
……… … ……… …

[표 1]을 참조하면, 문자 인식 대상 텍스트는 터치의 연속적인 움직임에 의해 선택되는 문자 인식 대상 텍스트의 나타낼 수 있다. 선택된 문자 인식 대상 텍스트의 문자 인식 결과에 따라 문자 인식 타입이 결정될 수 있다. 문자 인식 타입에 의해 휴대 장치(100)에서 실행되는(또는, 현재 실행 중인) 어플리케이션(또는, 어플리케이션 이름, 어플리케이션 종류, 또는, 저장된 어플리케이션 경로 등) 이 결정될 수 있다. [표 1]에 표시되는 항목(예를 들어, 문자 인식 대상 텍스트, 문자 인식 타입, 결정된 어플리케이션 등)은 각각 비트열(도시되지 아니함) 또는 크기(예를 들어, 비트, 또는, 바이트)을 가질 수 있다. [표 1]에 대응되는 제어 정보는 제어 정보 서버(300)뿐만 아니라 휴대 장치(100) 또는 일체형 휴대 장치(100-1)에서 변환되어 저장될 수 있다. Referring to [Table 1], the text to be recognized may represent the text to be recognized as the text selected by the continuous movement of the touch. A character recognition type may be determined according to a result of character recognition of the selected text to be recognized. The application (or application name, application type, or stored application path, etc.) executed in the mobile device 100 (or currently being executed) may be determined by the character recognition type. Items displayed in [Table 1] (eg, text to be recognized, text recognition type, determined application, etc.) each have a bit string (not shown) or a size (eg, bit, or byte). Can be. The control information corresponding to [Table 1] may be converted and stored in the control information server 300 as well as in the portable device 100 or the integrated portable device 100-1.

[표 1]에 표시되는 항목(예를 들어, 문자 인식 대상 텍스트, 문자 인식 타입, 결정된 어플리케이션 등)은 이에 한정되지 않고, 추가, 삭제 및 변경될 수도 있다. Items displayed in [Table 1] (for example, text to be recognized, text recognition type, determined application, etc.) are not limited thereto, and may be added, deleted, and changed.

[표 1]을 참조하면, 문자 인식 대상 텍스트는 터치의 연속적인 움직임에 의해 선택되는 문자 인식 대상 텍스트의 나타낼 수 있다. 선택된 문자 인식 대상 텍스트의 문자 인식 결과에 따라 문자 인식 타입이 결정될 수 있다. 문자 인식 대상 텍스트는 인공 지능(artificial intelligence, AI) 기술(예를 들어, deep learning을 포함)을 통해 인식 결과에 대한 정확도가 지속적으로 향상될 수 있다. Referring to [Table 1], the text to be recognized may represent the text to be recognized as the text selected by the continuous movement of the touch. A character recognition type may be determined according to a result of character recognition of the selected text to be recognized. The text to be recognized as a character may continuously improve the accuracy of the recognition result through artificial intelligence (AI) technology (for example, including deep learning).

여러 형태로 작성된 텍스트 데이터들을 비-지도학습(unsupervised learning)을 통해 의미(label)가 없는 데이터들간의 패턴이 파악될 수 있다. 데이터들 사이의 유사성에 근거하여 데이터의 요소가 군집화된다. 학습된 데이터를 토대로 텍스트의 내용을 Context와 사용자의 의도와 맞게 추론해내어 [표 1]에서 제시한 일 예의 문자 인식 대상 텍스트의 형태와 정확히 일치하지 않더라도 해당 텍스트가 어떤 타입인지 분류해줄 수 있다.Patterns between unlabeled data can be identified through unsupervised learning of text data written in various forms. The elements of the data are clustered based on the similarity between the data. Based on the learned data, the content of the text can be inferred according to the context and the user's intention, and even if it does not exactly match the type of the text to be recognized in the example given in [Table 1], the type of the text can be classified.

문자 인식 타입에 의해 휴대 장치(100)에서 실행되는(또는, 현재 실행 중인) 어플리케이션(또는, 어플리케이션 이름, 어플리케이션 종류, 또는, 저장된 어플리케이션 경로 등)이 결정될 수 있다. The character recognition type may determine an application (or application name, application type, or stored application path, etc.) to be executed (or currently being executed) in the portable device 100.

휴대 장치(100) 및 문자 인식 서버(200)는 일체형 휴대 장치(100-1)로 구현될 수 있다. 일체형 휴대 장치(100-1)의 동작은 상술된 별개인 휴대 장치(100)의 동작 및 문자 인식 서버(200)의 동작과 실질적으로 유사하므로 중복되는 설명은 생략될 수 있다. 문자 인식 서버(200) 및 제어 정보 서버(300)는 일체형 문자 인식 서버(200-1)로 구현될 수 있다. 일체형 문자 인식 서버(200-1)의 동작은 상술된 별개인 문자 인식 서버(200)의 동작 및 제어 정보 서버(300)의 동작과 실질적으로 유사하므로 중복되는 설명은 생략될 수 있다. The portable device 100 and the character recognition server 200 may be implemented as an integrated portable device 100-1. Since the operation of the integrated portable device 100-1 is substantially similar to the operation of the separate portable device 100 and the character recognition server 200 described above, a duplicate description may be omitted. The character recognition server 200 and the control information server 300 may be implemented as an integrated character recognition server 200-1. Since the operation of the integrated character recognition server 200-1 is substantially similar to the operation of the separate character recognition server 200 and the operation of the control information server 300 described above, a duplicate description may be omitted.

본 발명의 다른 실시예인 도 5d를 참조하면, 선택된 텍스트의 문자 인식이 진행된다. 제어부(110)는 저장된 텍스트에 대응되는 신호를 무선 통신 규격에 따라 문자 인식 서버(200)에서 수신할 수 있도록 전송(또는, 변환하여 전송)할 수 있다.Referring to FIG. 5D, which is another embodiment of the present invention, character recognition of the selected text proceeds. The controller 110 may transmit (or convert and transmit) a signal corresponding to the stored text to be received by the character recognition server 200 according to a wireless communication standard.

제어 정보 서버(300), 또는, 문자 인식 서버(또는, 일체형 문자 인식 서버)는 문자 인식 결과에 대응되는 제어 정보를 휴대 장치(100)로 전송할 수 있다. The control information server 300 or a character recognition server (or an integrated character recognition server) may transmit control information corresponding to a character recognition result to the mobile device 100.

도 3의 단계(S340)의 선택된 텍스트의 문자 인식(도 5d에 대응)은 도 3의 단계(S340)의 선택된 텍스트의 문자 인식(도 4d에 대응)과 실질적으로 유사하므로 중복되는 설명은 생략된다. Character recognition of the selected text in step S340 of FIG. 3 (corresponding to FIG. 5D) is substantially similar to character recognition of the selected text in step S340 (corresponding to FIG. 4D), and duplicate description is omitted. .

도 3의 단계(S350)에서, 문자 인식 결과에 따라 현재 화면이 변경된다. In step S350 of FIG. 3, the current screen is changed according to the character recognition result.

도 4e를 참조하면, 휴대 장치(100)의 제어부(110)는 통신부를 통해 제어 정보를 수신할 수 있다. 휴대 장치(100)의 제어부(110)는 통신부를 통해 제어 정보 서버(300)에서부터 제어 정보를 수신할 수 있다. 또한, 휴대 장치(100)의 제어부(110)는 통신부를 통해 일체형 문자 인식 서버(200-1)에서부터 제어 정보를 수신할 수 있다. Referring to FIG. 4E, the control unit 110 of the portable device 100 may receive control information through the communication unit. The control unit 110 of the portable device 100 may receive control information from the control information server 300 through the communication unit. Also, the control unit 110 of the portable device 100 may receive control information from the integrated character recognition server 200-1 through the communication unit.

휴대 장치(100)의 제어부(110)는 통신부를 통해 텍스트 데이터('서울특별시 강남구 역삼1동 736-32')를 수신할 수 있다. 또한, 휴대 장치(100)의 제어부(110)는 통신부를 통해 일체형 문자 인식 서버(200-1)에서부터 텍스트 데이터를 수신할 수 있다. 휴대 장치(100)는 텍스트 데이터 및 제어 정보를 함께 수신하거나 또는 별개로 각각 수신할 수 있다. The control unit 110 of the portable device 100 may receive text data ('736-32 Yeoksam 1-dong, Gangnam-gu, Seoul') through a communication unit. Also, the control unit 110 of the portable device 100 may receive text data from the integrated character recognition server 200-1 through the communication unit. The portable device 100 may receive text data and control information together or separately.

제어부(110)는 수신된 제어 정보를 파싱 할 수 있다. 제어부(110)는 제어 정보의 파싱을 통해 현재 화면(191)을 변경할 수 있다. 제어부(110)는 제어부(110)는 제어 정보의 파싱을 통해 현재 화면(예를 들어, 채팅 어플리케이션 화면, 191)을 다른 화면(예를 들어, 지도 어플리케이션 화면, 192)로 변경할 수 있다. The control unit 110 may parse the received control information. The control unit 110 may change the current screen 191 through parsing of control information. The controller 110 may change the current screen (eg, a chat application screen, 191) to another screen (eg, a map application screen, 192) through parsing of control information.

상술된 현재 화면의 변경은 변경된 어플리케이션 화면의 표시뿐만 아니라 실행되는 어플리케이션의 변경(예를 들어, 표시되는 지도 어플리케이션에서 제1 화면(터치의 연속적인 움직임에 대응되어 문자 인식된 제1 텍스트(예를 들어, 설정 화면, 도 5e 참조)의 위치)에서부터 제2 화면(터치의 연속적인 움직임에 대응되어 문자 인식된 제2 텍스트(Wi-Fi, 도 5f 참조)의 위치)으로 변경)도 포함할 수 있다. The above-described change of the current screen is not only the display of the changed application screen, but also the change of the application being executed (for example, the first text (e.g., the first text recognized in response to the continuous movement of the touch in the displayed map application) For example, the location of the setting screen (refer to FIG. 5E)) to the second screen (change to the position of the second text (Wi-Fi, see FIG. 5F) recognized as a character corresponding to the continuous movement of the touch). have.

또한, 현재 화면의 변경은 동일한 어플리케이션(예를 들어, 지도 어플리케이션)의 제1 화면(191)을 다른 화면(예를 들어, 다른 상대방(예를 들어, 김 대리, 도시되지 아니함)의 채팅 이력, 도시되지 아니함)의 변경을 포함할 수 있다. In addition, the change of the current screen is the first screen 191 of the same application (for example, a map application), another screen (for example, a chat history of another party (for example, Kim, proxy, not shown)), (Not shown).

제어부(110)는 제어 정보의 파싱을 통해 실행 예정인 지도 어플리케이션(예를 들어, 어플리케이션의 타이틀 영역(192a)에 지도 어플리케이션으로 표시)을 결정할 수 있다. 제어부(110)는 제어 정보의 파싱을 통해 지도 어플리케이션 화면(192)의 지도 표시 영역(192b)에 문자 인식 결과에 따른 회식 장소 위치(192b1)을 결정할 수 있다. The controller 110 may determine a map application (eg, displayed as a map application in the title area 192a of the application) to be executed through parsing of control information. The controller 110 may determine the location of the banquet venue 192b1 according to the character recognition result in the map display area 192b of the map application screen 192 through parsing of control information.

제어부(110)는 제어 정보의 파싱을 통해 지도 어플리케이션 화면(192)에 사용자의 현재 위치(예를 들어, 사무실)에서부터 회식 장소 위치(191b1) 사이의 최적 소요 시간(예를 들어, 10 분), 최적 거리(예를 들어, 4.5 ㎞)를 팝업(pop-up. 192b2)으로 표시할 수 있다. 팝업(192b) 내 방향 키(192b21, 192b22)의 선택에 따라 최단 거리, 또는, 최단 소요 시간이 표시될 수 있다. The controller 110 optimizes the time required (for example, 10 minutes) between a user's current location (for example, an office) and a dinner location (191b1) on the map application screen 192 through parsing of control information, The optimal distance (eg, 4.5 km) can be displayed as a pop-up (192b2). Depending on the selection of the direction keys 192b21 and 192b22 in the pop-up 192b, the shortest distance or the shortest time may be displayed.

제어부(110)는 말 풍선 내 텍스트에서 수신되는 터치의 연속적인 움직임에 따른 화면 변경에 대응되는 피드백(feedback)을 사용자에게 제공할 수 있다. 제어부(110)는 말 풍선 내에서 수신되는 터치의 연속적인 움직임에 의해 선택된 텍스트의 문자 인식 결과에 따른 화면 변경에 대응되는 피드백(feedback)을 사용자에게 제공할 수 있다. The controller 110 may provide a user with feedback corresponding to a screen change according to the continuous movement of the touch received from the text in the speech balloon. The control unit 110 may provide a user with feedback corresponding to a screen change according to a character recognition result of a text selected by a continuous movement of a touch received in a speech balloon.

제어부(110)는 시각 피드백, 청각 피드백 및 촉각 피드백 중 하나를 제공할 수 있다. 또한, 제어부(110)는 시각 피드백, 청각 피드백, 및 촉각 피드백의 조합을 사용자에게 제공할 수 있다. The controller 110 may provide one of visual feedback, auditory feedback, and tactile feedback. In addition, the controller 110 may provide a user with a combination of visual feedback, auditory feedback, and tactile feedback.

시각 피드백은 말 풍선 내 텍스트에서 수신되는 터치의 연속적인 움직임에 따른 화면 변경에 대응하는 시각 효과(예를 들어, 별도 이미지 또는 별도 이미지에 적용된 나타내기(fade)와 같은 애니메이션 효과, 도시되지 아니함)를 포함할 수 있다. 제어부(110)는 시각 피드백을 터치 스크린(190)에 표시할 수 있다. Visual feedback is a visual effect corresponding to a screen change according to a continuous movement of a touch received from text in a speech bubble (for example, an animation effect such as a fade applied to a separate image or a separate image, not shown) It may include. The control unit 110 may display visual feedback on the touch screen 190.

청각 피드백은 말 풍선 내 텍스트에서 수신되는 터치의 연속적인 움직임에 따른 화면 변경에 대응되는 사운드를 포함할 수 있다. 제어부(110)는 청각 피드백을 스피커(163)를 통해 출력할 수 있다. 제어부(110)는 청각 피드백을 하나의 스피커 또는 복수의 스피커를 통해 출력할 수 있다. The auditory feedback may include a sound corresponding to a screen change according to the continuous movement of the touch received from the text in the speech balloon. The control unit 110 may output auditory feedback through the speaker 163. The controller 110 may output auditory feedback through one speaker or a plurality of speakers.

촉각 피드백은 말 풍선 내 텍스트에서 수신되는 터치의 연속적인 움직임에 따른 화면 변경에 대응되는 진동을 포함할 수 있다. 제어부(110)는 촉각 피드백을 진동 모터(164)를 통해 출력할 수 있다. 진동 모터(164)가 복수인 경우, 제어부(110)는 촉각 피드백을 복수의 진동 모터 중 하나를 선택적으로 출력할 수 있다. The tactile feedback may include vibration corresponding to a screen change according to the continuous movement of the touch received from the text in the speech balloon. The controller 110 may output tactile feedback through the vibration motor 164. When there are multiple vibration motors 164, the controller 110 may selectively output one of the plurality of vibration motors for tactile feedback.

환경 설정(setting, 도시되지 아니함)을 통해 사용자에게 제공되는 피드백 제공 시간(예를 들어, 500 ㎳)이 변경될 수 있다. 또한, 말 풍선 내 텍스트에서 수신되는 터치의 연속적인 움직임에 따른 화면 변경에 대응하여 제공되는 복수의 피드백(예를 들어, 시각 피드백, 청각 피드백, 및 촉각 피드백) 중 적어도 하나가 선택될 수 있다.The time for providing feedback (for example, 500 s) provided to the user may be changed through an environment setting (not shown). Also, at least one of a plurality of feedbacks (eg, visual feedback, auditory feedback, and tactile feedback) provided in response to a screen change according to a continuous movement of a touch received from the text in the speech balloon may be selected.

본 발명의 다른 실시예인 도 5e 및 도 5f를 참조하면, 휴대 장치(100)의 제어부(110)는 통신부를 통해 제어 정보를 수신할 수 있다. 휴대 장치(100)의 제어부(110)는 통신부를 통해 제어 정보 서버(300) 또는, 일체형 문자 인식 서버(200-1)에서부터 제어 정보를 수신할 수 있다. 휴대 장치(100)의 제어부(110)는 문자 인식 서버(또는, 일체형 문자 인식 서버, 200)에서부터 통신부를 통해 텍스트 데이터('설정 화면에서 Wi-Fi')를 수신할 수 있다. 휴대 장치(100)는 텍스트 데이터 및 제어 정보를 함께 수신하거나 또는 별개로 각각 수신할 수 있다. 5E and 5F, which are other embodiments of the present invention, the control unit 110 of the portable device 100 may receive control information through the communication unit. The control unit 110 of the portable device 100 may receive control information from the control information server 300 or the integrated character recognition server 200-1 through the communication unit. The control unit 110 of the portable device 100 may receive text data (“Wi-Fi from the setting screen”) through a communication unit from a character recognition server (or an integrated character recognition server 200). The portable device 100 may receive text data and control information together or separately.

제어부(110)는 수신된 제어 정보를 파싱 할 수 있다. 제어부(110)는 제어 정보의 파싱을 통해 현재 화면(191-1)을 변경할 수 있다. 제어부(110)는 제어부(110)는 제어 정보의 파싱을 통해 현재 화면(예를 들어, 채팅 어플리케이션 화면, 191-1)을 다른 화면(예를 들어, 환경 설정, 193)로 변경할 수 있다. 상술된 현재 화면의 변경은 변경된 어플리케이션 화면의 표시뿐만 아니라 실행되는 어플리케이션의 변경도 포함할 수 있다. The control unit 110 may parse the received control information. The control unit 110 may change the current screen 191-1 through parsing of control information. The controller 110 may change the current screen (eg, a chat application screen, 191-1) to another screen (eg, environment setting, 193) through parsing of control information. The above-described change of the current screen may include not only the display of the changed application screen, but also the change of the executed application.

제어부(110)는 제어 정보의 파싱을 통해 실행 예정인 환경 설정 화면(예를 들어, 화면의 타이틀 영역(193a)에 환경 설정(settings)으로 표시)을 결정할 수 있다. 제어부(110)는 제어 정보의 파싱을 통해 설정 표시 영역(193b)에 Wi-Fi(193b1)를 포함하는 설정들을 포함하는 환경 설정 화면(193)을 표시할 수 있다. 환경 설정 화면(193)을 표시에 순차적으로 또는 연속적으로 Wi-Fi 화면(193b11)을 표시할 수 있다. 제어부(110)는 제어 정보의 파싱을 통해 바로 Wi-Fi 화면(193b11)을 표시할 수 있다. 사용자는 Wi-Fi 화면(193b11) 내 Wi-Fi on/off 스위치(193b11-1)를 이용하여 꺼진(off) Wi-Fi를 켤(on) 수 있다. The controller 110 may determine an environment setting screen (eg, displayed as settings in the title area 193a of the screen) to be executed through parsing of control information. The controller 110 may display an environment setting screen 193 including settings including the Wi-Fi 193b1 in the setting display area 193b through parsing of control information. The Wi-Fi screen 193b11 may be displayed sequentially or continuously on the display of the environment setting screen 193. The control unit 110 may directly display the Wi-Fi screen 193b11 through parsing of control information. The user can turn on (off) the Wi-Fi using the Wi-Fi on / off switch 193b11-1 in the Wi-Fi screen 193b11.

본 발명의 다른 실시예에서, 표시된 환경 설정 화면(193)에 포함되는 설정들은 말 풍선 내에서 선택된 텍스트의 문자 인식 결과에 따라 각각의 화면(예를 들어, 소리 및 진동(sound and vibration), 화면(display), 에지 스크린(edge screen), 화면 잠금 및 보안(lock screen and security), 배터리(battery), 사용자 매뉴얼(user manual), 블루투스, 비행 모드, 모바일 핫-스팟(hotspot), 데이터 사용, 등)이 표시될 수 있다. 상술된 환경 설정 화면(193)에 표시되지 않은 나머지 설정들의 화면들이 말 풍선 내에서 선택된 텍스트의 문자 인식 결과에 따라 표시될 수 있다. 또한, 환경 설정 화면(193)뿐만 아니라 퀵 패널(quick panel, 도시되지 아니함)에 포함되는 설정들의 화면이 말 풍선 내에서 선택된 텍스트의 문자 인식 결과에 따라 표시될 수 있다. In another embodiment of the present invention, the settings included in the displayed environment setting screen 193 are screens (eg, sound and vibration, respectively) according to the result of character recognition of the text selected in the speech balloon. (display), edge screen, lock screen and security, battery, user manual, bluetooth, flight mode, mobile hotspot, data usage, Etc.) may be displayed. The screens of the remaining settings not displayed on the above-described environment setting screen 193 may be displayed according to a character recognition result of the text selected in the speech balloon. In addition, a screen of settings included in the quick panel (not shown) as well as the environment setting screen 193 may be displayed according to a character recognition result of the text selected in the speech balloon.

본 발명의 다른 실시예에서, 화면 변경뿐만 아니라 휴대 장치(100)의 기능(또는, 설정)을 바로 변경할 수 있다. 예를 들어, 말 풍선 내에서 선택된 텍스트(예를 들어, '회의 시간엔 휴대폰을 진동 모드로 변경')의 문자 인식 결과에 따라 제어부(110)는 수신된 제어 정보에 대응하여 휴대 장치(100)의 벨 소리를 진동 모드로 바로 변경할 수 있다. 말 풍선 내에서 선택된 텍스트(예를 들어, '어두운 곳에서는 화면을 더 밝게')의 문자 인식 결과에 따라 제어부(110)는 수신된 제어 정보에 대응하여 휴대 장치(100)의 화면 밝기를 더 밝도록 변경할 수 있다. 또한, 말 풍선 내에서 선택된 텍스트(예를 들어, '배터리 잔량이 부족')의 문자 인식 결과에 따라 제어부(110)는 수신된 제어 정보에 대응하여 휴대 장치(100)의 배터리 모드를 배터리 절약 모드로 바로 변경할 수 있다. 상술된 휴대 장치(100)의 기능(또는, 설정) 변경은 이에 한정되지 않고, 휴대 장치가 지원 가능한 기능(또는, 설정)에 적용될 수 있다. In another embodiment of the present invention, a function (or setting) of the mobile device 100 may be changed as well as a screen change. For example, according to the text recognition result of the text selected in the speech balloon (for example, 'change the mobile phone to the vibration mode at the time of the meeting'), the controller 110 responds to the received control information, and the mobile device 100 You can change the sound of the bell to vibration mode immediately. According to the text recognition result of the text selected in the speech balloon (for example, 'the screen becomes brighter in a dark place'), the control unit 110 brightens the screen brightness of the mobile device 100 in response to the received control information. Can be changed. In addition, according to the character recognition result of the text (for example, 'low battery level') selected within the speech balloon, the control unit 110 sets the battery mode of the mobile device 100 to a battery saving mode in response to the received control information. Can be changed immediately. The above-described function (or setting) change of the portable device 100 is not limited to this, and may be applied to a function (or setting) that the portable device can support.

본 발명의 다른 실시예에서, 말 풍선 내 선택된 텍스트의 문자 인식에 대응되는 제어 정보에 따라 실행되는 어플리케이션은 휴대 장치(100)에서 인스톨된 외부 장치 제어 어플리케이션(예를 들어, 가정(home) 내 가전 장치(또는, 전자 장치), 사무실(office) 내 사무용 전자 장치, 또는 IoT(internet of things)) 장치 등을 포함할 수 있다. 가정 내 가전 장치(또는, 전자 장치)는 홈 네트워크(home network)에 연동되는 가전 장치(또는, 전자 장치)로 냉장고, 세탁기, 로봇 청소기, 에어컨, TV를 포함하는 디스플레이 장치, 스피커를 포함하는 오디오 장치, 도어 잠금 장치, CCTV를 포함하는 보안 장치, 가스 차단 장치, 전원 차단 장치, 또는, 가스 검출 센서, 화재 감시 센서, 방범 센서 등을 포함하는 센서 장치 등을 포함할 수 있다. 사무용 전자 장치는 사내 네트워크(intranet 포함)에 연동되는 프린터, 복사기, 스피커, 또는 팩스 등을 포함할 수 있다. 또한, IoT 장치는 전등, 가정 내 설치된 각종 센서들, 출입문 잠금 장치 등을 포함할 수 있다. IoT 장치는 가전 장치에 포함될 수 있다. In another embodiment of the present invention, the application executed according to the control information corresponding to the character recognition of the selected text in the speech bubble is an external device control application installed in the portable device 100 (for example, home appliances in the home) It may include a device (or electronic device), an office electronic device in an office, or an Internet of Things (IoT) device. The home appliance (or electronic device) in the home is a home network (or electronic device) linked to a home network (or electronic device), a refrigerator, a washing machine, a robot cleaner, an air conditioner, a display device including a TV, and audio including speakers. It may include a device, a door lock, a security device including a CCTV, a gas blocking device, a power blocking device, or a sensor device including a gas detection sensor, a fire monitoring sensor, a security sensor, and the like. Office electronic devices may include printers, copiers, speakers, or fax machines that are linked to an internal network (including intranets). In addition, the IoT device may include a light fixture, various sensors installed in the home, a door lock, and the like. IoT devices may be included in the home appliance.

도 6a 및 도 6b는 본 발명의 다른 실시예에 따른 휴대 장치의 화면 제어방법의 예를 나타내는 도면이다. 6A and 6B are views illustrating an example of a screen control method of a portable device according to another embodiment of the present invention.

도 6a 및 도 6b를 참조하면, 휴대 장치의 화면에 표시된 채팅 어플리케이션(191)에서 채팅이 진행된다. 표시 영역(191b-2)에 상대방(발신자 및 수신자 중 하나)과 사용자 사이에 주고받는 말 풍선(191b1-2 내지 191b2-2)이 표시될 수 있다. 6A and 6B, chat is performed in the chat application 191 displayed on the screen of the mobile device. A speech balloon 191b1-2 to 191b2-2 exchanged between the other party (one of the sender and the receiver) and the user may be displayed on the display area 191b-2.

사용자는 말 풍선(191b11-2)에 터치(또는, 호버링 포함, 도시되지 아니함)를 입력한다. 말 풍선(191b11-2)에서 입력되는 터치 및/또는 터치의 연속적인 움직임은 상술된 도 3의 단계(S320 및 S330)에서 입력되는 터치 및/또는 터치의 연속적인 움직임과 실질적으로 유사(예를 들어, 터치 또는 터치 제스처의 차이)하므로 중복되는 설명은 생략된다. The user inputs a touch (or hovering, not shown) to the speech balloon 191b11-2. The continuous movement of the touch and / or touch input from the speech balloon 191b11-2 is substantially similar to the continuous movement of the touch and / or touch input in the steps S320 and S330 of FIG. 3 described above (for example, For example, a difference between a touch or a touch gesture) is omitted.

최초 터치 위치에서부터 최후 터치 위치까지 터치의 연속적인 움직임에 대응하여 선택되는 텍스트(430s)는 '거실 에어컨을 강풍'일 수 있다. 터치의 연속적인 움직임에 대응하여 선택되는 텍스트(430s)는 도 4d에서 터치의 연속적인 움직임에 대응하여 선택되는 텍스트(410s)과 실질적으로 유사(예를 들어, 선택되는 텍스트의 차이)하므로 중복되는 설명은 생략된다. The text 430s selected in response to the continuous movement of the touch from the first touch position to the last touch position may be a 'strong air conditioner in the living room'. Since the text 430s selected in response to the continuous movement of the touch is substantially similar to the text 410s selected in response to the continuous movement of the touch in FIG. 4D (for example, the difference between the selected texts), the text 430s is overlapped. Description is omitted.

터치의 연속적인 움직임에 대응하여 선택되는 텍스트(430s)의 문자 인식의 진행은 도 3의 단계(S340)에서의 선택된 텍스트의 문자 인식 진행과 실질적으로 유사하므로 중복되는 설명은 생략된다. Since the progress of character recognition of the text 430s selected in response to the continuous movement of the touch is substantially similar to the progress of character recognition of the selected text in step S340 of FIG. 3, a duplicate description is omitted.

도 6b를 참조하면, 휴대 장치(100)의 제어부(110)는 통신부를 통해 제어 정보를 수신할 수 있다. 제어부(110)는 수신된 제어 정보를 파싱 할 수 있다. 제어부(110)는 제어 정보의 파싱을 통해 현재 화면(191-2)을 변경할 수 있다. 제어부(110)는 제어부(110)는 제어 정보의 파싱을 통해 현재 화면(예를 들어, 채팅 어플리케이션 화면, 191-2)을 다른 화면(예를 들어, 에어컨 제어 어플리케이션, 194)로 변경(또는, 실행)할 수 있다. Referring to FIG. 6B, the control unit 110 of the portable device 100 may receive control information through the communication unit. The control unit 110 may parse the received control information. The control unit 110 may change the current screen 191-2 through parsing of control information. The control unit 110 changes the current screen (for example, a chat application screen, 191-2) to another screen (for example, an air conditioner control application, 194) through parsing of control information (or, Run).

제어부(110)는 제어 정보의 파싱을 통해 타이틀 영역(194a)에 우리집 에어컨으로 표시되는 에어컨 제어 어플리케이션 화면(194)을 표시(또는, 실행)할 수 있다. 제어부(110)는 제어 정보의 파싱을 통해 에어컨 제어 어플리케이션 화면(194)의 에어컨 제어 어플리케이션 표시 영역(194b)에 동작 모드(예를 들어, 강풍, 194b1) 및 현재 온도(예를 들어, 23℃, 194b2)가 표시될 수 있다. 또한, 사용자는 에어컨 제어 어플리케이션 화면(194)의 에어컨 제어 어플리케이션 표시 영역(194b)에서 동작 모드(예를 들어, 강풍)를 선택할 수도 있다. The controller 110 may display (or execute) the air conditioner control application screen 194 displayed as the home air conditioner in the title area 194a through parsing of control information. The control unit 110 displays an operation mode (for example, strong wind, 194b1) and a current temperature (for example, 23 ° C.) in the air conditioner control application display area 194b of the air conditioner control application screen 194 through parsing of control information. 194b2) may be displayed. In addition, the user may select an operation mode (for example, strong wind) in the air conditioner control application display area 194b of the air conditioner control application screen 194.

제어부(110)는 말 풍선 내 텍스트에서 수신되는 터치의 연속적인 움직임에 따른 화면 변경(화면(191)에서부터 화면(193, 194)으로)에 대응되는 피드백(feedback)을 사용자에게 제공할 수 있다. 제어부(110)는 말 풍선 내에서 수신되는 터치의 연속적인 움직임에 의해 선택된 텍스트의 문자 인식 결과에 따른 화면 변경(화면(191)에서부터 화면(193, 194)으로)에 대응되는 피드백(feedback)을 사용자에게 제공할 수 있다. The controller 110 may provide a user with feedback corresponding to a screen change (from the screen 191 to the screens 193 and 194) according to the continuous movement of the touch received from the text in the speech balloon. The controller 110 provides feedback corresponding to a screen change (from the screen 191 to the screens 193 and 194) according to the text recognition result of the text selected by the continuous movement of the touch received in the speech balloon. It can be provided to the user.

도 3의 단계(S350)에서, 문자 인식 결과에 따라 현재 화면이 변경되는 경우, 휴대 장치의 화면 제어방법은 종료된다. In step S350 of FIG. 3, when the current screen is changed according to the character recognition result, the screen control method of the portable device ends.

본 발명의 예시적 실시예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 예를 들어, 상기 컴퓨터 판독 가능 매체는 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 또한, 컴퓨터 판독 가능 프로그램은 서버의 컴퓨터 판독 가능 저장 매체에 저장되고, 상기 컴퓨터 프로그램은 네트워크를 통해 컴퓨팅 장치에 다운로드 될 수 있다. The methods according to the exemplary embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. For example, the computer-readable medium is volatile or non-volatile storage device, such as a storage device such as ROM, regardless of whether it is erasable or rewritable, or, for example, RAM, memory chip, device or integrated circuit It may be stored in a memory or a storage medium readable by a machine (for example, a computer) while being optically or magnetically recordable, for example, a CD, DVD, magnetic disk or magnetic tape. In addition, the computer readable program is stored in a computer readable storage medium of the server, and the computer program can be downloaded to a computing device over a network.

휴대 장치 내에 포함될 수 있는 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. It will be appreciated that a memory that may be included in a portable device is an example of a machine readable storage medium suitable for storing programs or programs including instructions for implementing embodiments of the present invention. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in computer software.

이상과 같이 본 발명은 상술된 예시적 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 예시적 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by the above-described exemplary embodiments and drawings, but the present invention is not limited to the above-described exemplary embodiments, and those skilled in the art to which the present invention pertains from these descriptions. Various modifications and variations are possible.

그러므로, 본 발명의 범위는 설명된 예시적 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다. Therefore, the scope of the present invention should not be limited to the described exemplary embodiments, but should be defined not only by the claims below, but also by the claims and equivalents.

100: 휴대 장치 110: 제어부
190: 터치스크린 191: 어플리케이션 화면
191a: 타이틀 영역 191b: 표시 영역
191b1: 말 풍선 191c: 입력 영역
410: 터치 410-1: 터치의 연속적인 움직임
100: mobile device 110: control unit
190: Touch screen 191: Application screen
191a: Title area 191b: Display area
191b1: speech balloon 191c: input area
410: Touch 410-1: Continuous movement of touch

Claims (18)

휴대 장치에 표시되는 어플리케이션 화면 상에 상기 어플리케이션을 통해 송신된 적어도 하나의 송신 메시지 및 상기 어플리케이션을 통해 수신된 적어도 하나의 수신 메시지 각각에 대응되는 복수의 텍스트 표시 영역을 순차적으로 표시하는 단계;
상기 어플리케이션 화면에 표시된 복수의 텍스트 표시 영역 중 하나의 텍스트 표시 영역에서 터치를 검출하는 단계;
상기 터치의 연속적인 움직임을 검출하는 단계;
상기 하나의 텍스트 표시 영역 중 상기 터치의 연속적인 움직임이 검출된 영역에서 문자 인식된 텍스트를 획득하는 단계;
상기 획득된 텍스트에 대응되는 상기 휴대 장치의 설정을 변경하기 위한 제어 명령을 획득하는 단계; 및
상기 획득된 제어 명령에 기초하여 상기 휴대 장치의 설정을 변경하는 단계;를 포함하는 휴대 장치의 화면 제어방법.
Sequentially displaying a plurality of text display areas corresponding to each of at least one transmission message transmitted through the application and at least one received message received through the application on an application screen displayed on the portable device;
Detecting a touch in a text display area of a plurality of text display areas displayed on the application screen;
Detecting a continuous movement of the touch;
Obtaining text recognized in a region in which the continuous movement of the touch is detected in the one text display region;
Obtaining a control command for changing a setting of the portable device corresponding to the obtained text; And
And changing settings of the portable device based on the obtained control command.
제1항에 있어서,
상기 복수의 텍스트 표시 영역은 상기 적어도 하나의 송신 텍스트 메시지에 대응되는 사용자의 텍스트 표시 영역 및 상기 적어도 하나의 수신 텍스트 메시지에 대응되는 상대방의 텍스트 표시 영역 중 적어도 하나를 포함하는 휴대 장치의 화면 제어방법.
According to claim 1,
The plurality of text display areas include at least one of a text display area of a user corresponding to the at least one transmission text message and a text display area of a counterpart corresponding to the at least one received text message. .
제1항에 있어서,
상기 휴대 장치의 설정을 변경하는 단계는,
진동 모드로 변경, 화면 밝기 변경 또는 절전 모드로 변경을 포함하는 휴대 장치의 화면 제어방법.

According to claim 1,
The step of changing the settings of the portable device,
A method for controlling a screen of a mobile device, including changing to a vibration mode, changing a screen brightness, or changing to a power saving mode.

제1항에 있어서,
상기 터치의 연속적인 움직임은 싱글 터치 제스처 및 멀티 터치 제스처를 포함하고, 플릭, 스와이프, 드래그 및 회전을 포함하는 휴대 장치의 화면 제어방법.
According to claim 1,
The continuous movement of the touch includes a single touch gesture and a multi-touch gesture, and a method of controlling a screen of a mobile device including flick, swipe, drag, and rotation.
제1항에 있어서,
상기 문자 인식된 텍스트는,
상기 휴대 장치 및 상기 휴대 장치와 통신으로 연결되는 문자 인식 서버 중 하나에서 획득되는 휴대 장치의 화면 제어방법.
According to claim 1,
The text recognized text,
A method for controlling a screen of a portable device obtained from one of the portable device and a character recognition server connected to the portable device in communication.
제1항에 있어서,
상기 획득된 텍스트에 대응되는 설정 화면을 표시하는 단계;를 더 포함하는 휴대 장치의 화면 제어방법.
According to claim 1,
And displaying a setting screen corresponding to the acquired text.
제6항에 있어서,
상기 설정 화면은,
상기 휴대 장치의 환경 설정을 위한 연속되는 복수의 환경 설정 화면을 포함하는 휴대 장치의 화면 제어방법.
The method of claim 6,
The setting screen,
A method of controlling a screen of a portable device, comprising a plurality of consecutive setting screens for setting the environment of the portable device.
제1항에 있어서,
상기 획득된 제어 명령은 외부에서 수신되는 휴대 장치의 화면 제어방법.
According to claim 1,
The obtained control command is a screen control method of a mobile device that is received from the outside.
제1항에 있어서,
상기 하나의 텍스트 표시 영역 내 문자 인식되는 텍스트는 상기 터치의 연속적인 움직임에 의해 선택되는 휴대 장치의 화면 제어방법.
According to claim 1,
A method of controlling a screen of a mobile device, wherein text recognized as a character in the text display area is selected by continuous movement of the touch.
제9항에 있어서,
상기 하나의 텍스트 표시 영역 내 상기 터치의 연속적인 움직임에 의해 선택되는 텍스트는 다른 텍스트와 구별되게 표시되는 휴대 장치의 화면 제어방법.
The method of claim 9,
A method of controlling a screen of a mobile device in which text selected by continuous movement of the touch in the one text display area is displayed differently from other text.
제1항에 있어서,
상기 설정 화면으로의 변경에 대응되는 피드백을 제공하는 단계를 더 포함하고,
상기 피드백은 시각 피드백, 청각 피드백 및 촉각 피드백 중 적어도 하나를 포함하는 휴대 장치의 화면 제어방법.
According to claim 1,
Further comprising the step of providing feedback corresponding to the change to the setting screen,
The feedback includes at least one of visual feedback, auditory feedback, and tactile feedback.
외부와 연결하는 통신부;
터치 스크린; 및
상기 통신부 및 상기 터치 스크린을 제어하는 프로세서;를 포함하고,
상기 프로세서는,
어플리케이션 화면 상에 상기 어플리케이션을 통해 송신된 적어도 하나의 송신 텍스트 메시지 및 상기 어플리케이션을 통해 수신된 적어도 하나의 수신 텍스트 메시지 각각에 대응되는 복수의 텍스트 표시 영역을 순차적으로 표시하고,
상기 복수의 텍스트 표시 영역 중 하나의 텍스트 표시 영역에서 터치의 연속적인 움직임이 검출된 영역에 포함된 텍스트의 문자 인식 결과를 획득하고,
상기 텍스트의 문자 인식 결과를 상기 통신부를 통해 외부로 전송하고, 상기 텍스트의 문자 인식 결과에 대응되는 제어 정보가 상기 통신부를 통해 수신되면, 상기 수신된 제어 정보에 기초하여 휴대 장치의 설정을 변경하는 휴대 장치.
A communication unit connected to the outside;
touch screen; And
Includes; a processor for controlling the communication unit and the touch screen,
The processor,
A plurality of text display areas corresponding to each of at least one transmission text message transmitted through the application and at least one reception text message received through the application are sequentially displayed on an application screen,
Acquiring a character recognition result of text included in an area in which a continuous movement of a touch is detected in one text display area of the plurality of text display areas,
When the text recognition result of the text is transmitted to the outside through the communication unit, and control information corresponding to the text recognition result of the text is received through the communication unit, the setting of the portable device is changed based on the received control information. Mobile devices.
제12항에 있어서,
상기 프로세서는 상기 터치의 연속적인 움직임에 기초하여 상기 하나의 텍스트 표시 영역 내의 텍스트 전부 및 일부 텍스트 중 하나를 선택되지 않은 다른 텍스트와 구별되게 표시하도록 제어하는 휴대 장치.
The method of claim 12,
And the processor controls to display one of all and some of the texts in the one text display area distinctly from other unselected texts based on the continuous movement of the touch.
제12항에 있어서,
압력 터치 패드를 더 포함하고,
상기 터치는 상기 압력 터치 패드를 통해 검출되는 휴대 장치.
The method of claim 12,
Further comprising a pressure touch pad,
The touch is a mobile device that is detected through the pressure touch pad.
제12항에 있어서,
상기 프로세서는,
상기 수신된 제어 정보에 기초하여 상기 휴대 장치의 설정을 진동 모드로 변경, 화면 밝기 변경 또는 절전 모드로 변경하는 휴대 장치.
The method of claim 12,
The processor,
A mobile device that changes the setting of the mobile device to a vibration mode, a screen brightness change, or a power saving mode based on the received control information.
제12항에 있어서,
상기 텍스트의 문자 인식 결과는,
상기 휴대 장치 및 상기 통신부를 통해 상기 휴대 장치와 연결되는 문자 인식 서버 중 하나에서 획득되는 휴대 장치.
The method of claim 12,
The text recognition result of the text,
A portable device obtained from one of a character recognition server connected to the portable device through the portable device and the communication unit.
제12항에 있어서,
상기 프로세서는,
상기 수신된 제어 정보에 대응되는 설정 화면을 상기 터치 스크린에 표시하는 휴대 장치.
The method of claim 12,
The processor,
A mobile device displaying a setting screen corresponding to the received control information on the touch screen.
제17항에 있어서,
상기 설정 화면은,
상기 휴대 장치의 환경 설정을 위한 연속되는 복수의 환경 설정 화면을 포함하는 휴대 장치.
The method of claim 17,
The setting screen,
A portable device comprising a plurality of consecutive environment setting screens for setting the environment of the portable device.
KR1020200052058A 2017-03-10 2020-04-29 Portable apparatus and a screen control method thereof KR102278213B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200052058A KR102278213B1 (en) 2017-03-10 2020-04-29 Portable apparatus and a screen control method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170030649A KR20180103547A (en) 2017-03-10 2017-03-10 Portable apparatus and a screen control method thereof
KR1020200052058A KR102278213B1 (en) 2017-03-10 2020-04-29 Portable apparatus and a screen control method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170030649A Division KR20180103547A (en) 2017-03-10 2017-03-10 Portable apparatus and a screen control method thereof

Publications (2)

Publication Number Publication Date
KR20200049744A true KR20200049744A (en) 2020-05-08
KR102278213B1 KR102278213B1 (en) 2021-07-19

Family

ID=70678009

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200052058A KR102278213B1 (en) 2017-03-10 2020-04-29 Portable apparatus and a screen control method thereof

Country Status (1)

Country Link
KR (1) KR102278213B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140011881A (en) * 2012-07-20 2014-01-29 트랜스지보강 주식회사 Remote control system through transfer of control right and method thereof
KR20140133083A (en) * 2013-05-09 2014-11-19 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR20140133153A (en) * 2013-05-10 2014-11-19 엘지전자 주식회사 Mobile terminal and method for controlling of the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140011881A (en) * 2012-07-20 2014-01-29 트랜스지보강 주식회사 Remote control system through transfer of control right and method thereof
KR20140133083A (en) * 2013-05-09 2014-11-19 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR20140133153A (en) * 2013-05-10 2014-11-19 엘지전자 주식회사 Mobile terminal and method for controlling of the same

Also Published As

Publication number Publication date
KR102278213B1 (en) 2021-07-19

Similar Documents

Publication Publication Date Title
US10678351B2 (en) Devices and methods for providing an indication as to whether a message is typed or drawn on an electronic device with a touch-sensitive display
US20230040146A1 (en) User device and method for creating handwriting content
KR102481878B1 (en) Portable apparatus and method for displaying a screen
US11120220B2 (en) Device, method, and graphical user interface for a predictive keyboard
US20140285453A1 (en) Portable terminal and method for providing haptic effect
KR101815720B1 (en) Method and apparatus for controlling for vibration
US11132498B2 (en) Portable device and method for controlling cursor of portable device
KR20140128208A (en) user terminal device and control method thereof
KR20150057863A (en) Portable apparatus and method for controlling a screen brightness
KR102627191B1 (en) Portable apparatus and method for controlling a screen
US11474683B2 (en) Portable device and screen control method of portable device
KR102278213B1 (en) Portable apparatus and a screen control method thereof
KR102665226B1 (en) Devices and methods for manipulating user interfaces with a stylus

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant