KR102232583B1 - 전자장치 및 전자장치의 웹 재현 방법 - Google Patents

전자장치 및 전자장치의 웹 재현 방법 Download PDF

Info

Publication number
KR102232583B1
KR102232583B1 KR1020150002646A KR20150002646A KR102232583B1 KR 102232583 B1 KR102232583 B1 KR 102232583B1 KR 1020150002646 A KR1020150002646 A KR 1020150002646A KR 20150002646 A KR20150002646 A KR 20150002646A KR 102232583 B1 KR102232583 B1 KR 102232583B1
Authority
KR
South Korea
Prior art keywords
electronic device
external device
web page
information
unit
Prior art date
Application number
KR1020150002646A
Other languages
English (en)
Other versions
KR20160085535A (ko
Inventor
조경선
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150002646A priority Critical patent/KR102232583B1/ko
Priority to US14/983,683 priority patent/US10170099B2/en
Priority to PCT/KR2016/000203 priority patent/WO2016111588A1/en
Publication of KR20160085535A publication Critical patent/KR20160085535A/ko
Application granted granted Critical
Publication of KR102232583B1 publication Critical patent/KR102232583B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/18Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/134Hyperlinking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/30Security of mobile devices; Security of mobile applications
    • H04W12/33Security of mobile devices; Security of mobile applications using wearable devices, e.g. using a smartwatch or smart-glasses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • H04W4/21Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel for social networking applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/70Services for machine-to-machine communication [M2M] or machine type communication [MTC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W80/00Wireless network protocols or protocol adaptations to wireless operation
    • H04W80/08Upper layer protocols
    • H04W80/12Application layer protocols, e.g. WAP [Wireless Application Protocol]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0613The adjustment depending on the type of the information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • G09G2340/145Solving problems related to the presentation of information to be displayed related to small screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2358/00Arrangements for display data security
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Security & Cryptography (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

제1 영역 및 제2 영역을 포함하는 제1 웹페이지를 표시하는 디스플레이부, 전자장치의 상태를 감지하는 센서부, 외부장치와 통신을 수행하는 통신부 및 상기 센서부에서 출력된 신호에 기초하여 상기 제1 영역 및 상기 제2 영역 중 적어도 하나를 음성으로 변환하고, 상기 통신부를 통해 수신된 상기 외부장치 상태 정보에 기초하여 상기 제1 영역을 상기 외부장치로 전송하도록 제어하는 제어부를 포함하는 전자장치가 제공된다.

Description

전자장치 및 전자장치의 웹 재현 방법{ELECTRONIC APPARATUS AND WEB REPRESENTATION METHOD THEREOF}
본 개시의 다양한 실시 예는 전자장치 및 전자장치의 웹 재현 방법에 관한 것이다. 상세하게는 디스플레이부에 표시된 웹페이지(Web page)를 음성으로 변환하여 출력하고, 웹페이지에 포함된 링크 객체(link objects)중 일부를 외부장치로 출력할 수 있는 전자장치 및 전자장치의 웹 재현 방법에 관한 것이다.
웹(Web)은 텍스트, 정지영상, 동영상 등 주로 시각 기반으로 정보를 기술(description)하고 표현(presentation)한다. 이러한 웹은 HTML(hypertext markup language), CSS(cascading style sheets) 및 JS(java script) 등을 결합하여 화면에 다양한 객체들을 표현하는 것이 가능하다. 또한 웹이 발전함에 따라 기존 데스크톱(Desktop) PC, 노트 PC에서 태블렛, 스마트폰, 스마트 TV, 스마트워치 등, 웹을 재현할 수 있는 단말이 다양해 지고 있다. 특히 스마트워치와 같은 웨어러블 다비이스 및 IoT(internet of things)/WoT(web of things) 등 기존에 비하여 단말 및 화면의 크기가 작아지고 그 형태가 다양해지고 있다. 이런 웹 주변환경의 변화로 인하여 기존 시각 기반의 모달리티(Visual Modality)에서 벗어나 다양한 모달리티 정보로 웹페이지를 변환하여 사용자에게 제공하기 위한 기술이 요구되고 있다. 또한 기존의 수동적인 웹 브라우징과 달리 능동적으로 사용자의 의도 및 상황(user context)을 식별하여 끊김없이 웹페이지를 제공할 수 있는 다양한 방법이 요구되고 있다.
본 개시의 다양한 실시 예들은 상기와 같은 문제점을 해결하기 위해 안출된 것으로 전자장치 및 전자장치의 웹 재현 방법을 제공하는데 있다. 특히 전자장치에 표시된 웹페이지를 음성으로 변환하여 출력하고, 웹페이지에 포함된 링크 객체 중 일부를 웨어러블 장치와 같은 외부 디바이스로 전달하여 외부 디바이스의 디스플레이부에 표시할 수 있는 방법을 제공한다.
본 개시의 다양한 실시 예들에 따른 전자장치는 제1 웹페이지를 표시하는 디스플레이부; 전자장치의 상태를 감지하는 센서부; 외부장치와 통신을 수행하는 통신부; 및 상기 센서부에서 출력된 신호에 기초하여 상기 제1 웹페이지 중 적어도 일부를 음성으로 변환하고, 상기 통신부를 통해 수신된 상기 외부장치 상태 정보에 기초하여 상기 제1 웹페이지 중 적어도 일부를 상기 외부장치로 전송하도록 제어하는 제어부;를 포함할 수 있다. 상기 제어부는, 상기 통신부를 통해 상기 외부장치에 표시된 링크 객체중 하나를 선택하는 사용자 입력에 기초한 신호를 수신하고, 상기 신호에 기초하여 상기 선택된 링크 객체에 대응하는 제2 웹페이지를 상기 디스플레이부에 표시하도록 상기 디스플레이부를 제어할 수 있다. 상기 제어부는, 상기 외부장치 상태 정보에 기초하여 상기 제1 웹페이지를 상기 외부장치가 처리할 수 있는 정보로 변환할 수 있다.
또한 전자장치는, 상기 전자장치의 위치 정보를 수신하는 위치정보 수신부를 더 포함하고, 상기 위치정보 수신부에서 출력된 신호에 기초하여 상기 제1 웹페이지 중 적어도 일부를 음성으로 변환할 수 있다. 상기 제어부는, 상기 제1 웹페이지에 포함된 보안 정보에 기초하여 상기 제1 웹페이지의 적어도 일부를 상기 통신부를 통해 상기 외부장치로 전송할 수 있다.
또한 전자장치는, 오디오 출력부를 더 포함하고, 상기 제어부는 상기 음성을 상기 오디오 출력부를 통해 출력할 수 있다. 상기 센서부는 광센서, 가속도 센서 및 중력 센서 중 적어도 하나를 포함할 수 있다.
상기 제1 웹페이지는 링크 객체를 포함하며, 상기 제어부는 상기 링크 객체의 우선순위에 기초하여 상기 링크 객체 중 적어도 일부를 상기 외부장치로 전송하도록 제어할 수 있다.
본 개시의 다양한 실시 예들에 따른 전자장치의 웹 재현 방법은, 디스플레이부에 제1 웹페이지를 표시하는 단계; 센서부를 통해 전자장치의 상태를 감지하는 단계; 외부장치 상태 정보를 수신하는 단계; 및 상기 센서부에서 출력된 신호에 기초하여 상기 제1 웹페이지 중 적어도 일부를 음성으로 변환하고, 상기 수신된 외부장치 상태 정보에 기초하여 상기 제1 웹페이지 중 적어도 일부를 상기 외부장치로 전송하는 단계;를 포함할 수 있다. 상기 방법은, 통신부를 통해 상기 외부장치에 표시된 링크 객체 중 하나를 선택하는 사용자 입력에 기초한 신호를 수신하는 단계; 및 상기 신호에 기초하여 상기 선택된 링크 객체에 대응하는 제2 웹페이지를 상기 디스플레이부에 표시하는 단계;를 더 포함할 수 있다. 상기 방법은, 상기 외부장치 상태 정보에 기초하여 상기 제1 웹페이지를 상기 외부장치가 처리할 수 있는 정보로 변환할 수 있다. 상기 방법은, 상기 전자장치의 위치 정보를 수신하는 단계; 및 상기 위치 정보에 기초하여 상기 제1 웹페이지 중 적어도 일부를 음성으로 변환하는 단계;를 더 포함할 수 있다. 상기 방법은, 상기 제1 웹페이지에 포함된 보안 정보에 기초하여 상기 제1 웹페이지의 적어도 일부를 상기 통신부를 통해 상기 외부장치로 전송할 수 있다. 상기 방법은, 상기 음성을 오디오 출력부를 통해 출력할 수 있다. 상기 센서부는 광센서, 가속도 센서 및 중력 센서 중 적어도 하나를 포함할 수 있다. 상기 제1 웹페이지는 링크 객체를 포함하며, 상기 방법은, 상기 링크 객체의 우선순위에 기초하여 상기 링크 객체 중 적어도 일부를 상기 외부장치로 전송하는 단계;를 더 포함할 수 있다.
본 개시의 다양한 실시 예들에 따른 전자장치는 제1 웹페이지를 표시하는 디스플레이부; 전자장치의 상태를 감지하는 센서부; 외부장치와 통신을 수행하는 통신부; 및 상기 센서부에서 출력된 신호에 기초하여 상기 제1 웹페이지 중 적어도 일부를 제1 모달리티 정보로 변환하는 제어부;를 포함할 수 있다. 전자장치는 상기 통신부를 통해 상기 외부장치 상태 정보를 수신하고, 상기 제어부는 상기 외부장치 상태 정보에 기초하여 상기 제1 웹페이지 중 적어도 일부를 상기 외부장치로 전송할 수 있다. 상기 제어부는, 상기 통신부를 통해 상기 제1 웹페이지에 포함된 링크 객체 중 적어도 일부를 상기 외부장치로 출력할 수 있다.
제어부는, 상기 통신부를 통해 상기 외부장치에 표시된 링크 객체 중 하나를 선택하는 사용자 입력에 기초한 신호를 수신하고, 상기 수신된 신호에 기초하여 상기 선택된 링크 객체에 대응하는 제2 웹페이지를 상기 디스플레이부에 표시하도록 상기 디스플레이부를 제어할 수 있다.
전자장치는 상기 통신부를 통해 상기 외부장치상태 정보를 수신하고, 상기 제어부는 상기 상태 정보에 기초하여 상기 제1 웹페이지를 상기 외부장치가 처리할 수 있는 정보로 변환할 수 있다.
전자장치는, 상기 전자장치의 위치 정보를 수신하는 위치정보 수신부를 더 포함하고, 상기 위치정보 수신부에서 출력된 신호에 기초하여 상기 제1 웹페이지 중 적어도 일부를 제1 모달리티 정보로 변환할 수 있다. 여기서 상기 제1 모달리티는 음성 모달리티일 수 있다. 또한 상기 제1 모달리티는 촉각 모달리티일 수 있다.
상기 전자장치는, 오디오 출력부를 더 포함하고, 상기 제어부는 상기 제1 모달리티 정보로 변환된 제1 웹페이지를 상기 오디오 출력부를 통해 출력할 수 있다.
상기 제어부는, 상기 제1 웹페이지에 포함된 보안 정보에 기초하여 상기 제1 웹페이지의 적어도 일부를 상기 통신부를 통해 상기 외부장치로 출력할 수 있다.
본 개시의 다양한 실시 예들에 따른 전자장치의 웹 재현 방법은, 디스플레이부에 제1 웹페이지를 표시하는 단계; 센서부를 통해 전자장치의 상태를 감지하는 단계; 및 상기 센서부에서 출력된 신호에 기초하여 상기 제1 웹페이지 중 적어도 일부를 제1 모달리티 정보로 변환하는 단계;를 포함할 수 있다.
상기 방법은, 통신부를 통해 상기 외부장치 상태 정보를 수신하고, 상기 외부장치 상태 정보에 기초하여 상기 제1 웹페이지 중 적어도 일부를 상기 외부장치로 전송하는 단계;를 더 포함할 수 있다.
상기 방법은, 통신부를 통해 상기 제1 웹페이지에 포함된 링크 객체 중 적어도 일부를 상기 외부장치로 출력하는 단계;를 더 포함할 수 있다.
상기 방법은, 상기 통신부를 통해 상기 외부장치에 표시된 링크 객체 중 하나를 선택하는 사용자 입력에 기초한 신호를 수신하고, 상기 수신된 신호에 기초하여 상기 선택된 링크 객체에 대응하는 제2 웹페이지를 상기 디스플레이부에 표시하는 단계;를 더 포함할 수 있다.
상기 방법은, 상기 외부장치 상태 정보를 수신하는 단계; 및 상기 외부장치 상태 정보에 기초하여 상기 제1 웹페이지를 상기 외부장치가 처리할 수 있는 정보로 변환하는 단계;를 더 포함할 수 있다.
상기 방법은, 상기 전자장치의 위치 정보를 수신하는 단계; 및 상기 위치정보에 기초하여 상기 제1 웹페이지 중 적어도 일부를 제1 모달리티 정보로 변환하는 단계;를 더 포함할 수 있다. 상기 제1 모달리티는 음성 모달리티일 수 있다. 또한 상기 제1 모달리티는 촉각 모달리티일 수 있다.
상기 방법은, 상기 제1 모달리티 정보로 변환된 상기 제1 웹페이지를 오디오 출력부를 통해 출력하는 단계;를 더 포함할 수 있다.
상기 방법은, 상기 제1 웹페이지에 포함된 보안 정보에 기초하여 상기 제1 웹페이지의 적어도 일부를 상기 통신부를 통해 상기 외부장치로 출력하는 단계;를 더 포함할 수 있다.
본 개시의 다양한 실시 예들에 따른 전자장치는, 제1 영역 및 제2 영역을 포함하는 제1 웹페이지를 표시하는 디스플레이부; 전자장치의 상태를 감지하는 센서부; 외부장치와 통신을 수행하는 통신부; 및 상기 센서부에서 출력된 신호에 기초하여 상기 제1 영역 및 상기 제2 영역 중 적어도 하나를 음성으로 변환하고, 상기 통신부를 통해 수신된 상기 외부장치 상태 정보에 기초하여 상기 제1 영역을 상기 외부장치로 전송하도록 제어하는 제어부;를 포함할 수 있다.
여기서 상기 제어부는, 상기 외부장치 상태 정보에 기초하여 상기 제1 영역을 상기 외부장치가 처리할 수 있는 정보로 변환할 수 있다.
상기 전자장치는, 상기 전자장치의 위치 정보를 수신하는 위치정보 수신부를 더 포함하고, 상기 위치정보 수신부에서 출력된 신호에 기초하여 상기 제1 영역을 음성으로 변환할 수 있다.
상기 제어부는, 상기 제1 웹페이지에 포함된 보안 정보에 기초하여 상기 제1 영역을 상기 통신부를 통해 상기 외부장치로 전송할 수 있다.
본 개시의 다양한 실시 예들에 따른 전자장치는, 제1 영역 및 제2 영역을 포함하는 제1 웹페이지를 표시하는 디스플레이부; 전자장치의 상태를 감지하는 센서부; 외부장치와 통신을 수행하는 통신부; 및 상기 센서부에서 출력된 신호에 기초하여 상기 제1 영역 및 상기 제2 영역 중 적어도 하나를 음성으로 변환하는 제어부;를 포함할 수 있다.
상기 전자장치는, 상기 통신부를 통해 상기 외부장치 상태 정보를 수신하고, 상기 제어부는 상기 외부장치 상태 정보에 기초하여 상기 제1 영역을 상기 외부장치로 전송할 수 있다.
본 개시의 다양한 실시 예들에 따른 전자장치의 웹 재현 방법은 디스플레이부에 제1 영역 및 제2 영역을 포함하는 제1 웹페이지를 표시하는 단계; 전자장치의 상태를 감지하는 단계; 외부장치 상태 정보를 수신하는 단계; 상기 수신된 외부장치 상태 정보에 기초하여 상기 제1 영역을 상기 외부장치로 전송하는 단계; 및 상기 전자장치의 상태에 기초하여 상기 제1 영역 및 상기 제2 영역 중 적어도 하나를 음성으로 변환하는 단계; 를 포함할 수 있다.
상기 방법은, 통신부를 통해 상기 외부장치에 표시된 상기 링크 객체중 하나를 선택하는 사용자 입력에 기초한 신호를 수신하는 단계; 및 상기 신호에 기초하여 상기 선택된 링크 객체에 대응하는 제2 웹페이지를 상기 디스플레이부에 표시하는 단계;를 더 포함할 수 있다.
상기 방법은, 상기 외부장치 상태 정보에 기초하여 상기 제1 영역을 상기 외부장치가 처리할 수 있는 정보로 변환할 수 있다.
상기 방법은, 상기 전자장치의 위치 정보를 수신하는 단계; 및 상기 위치 정보에 기초하여 상기 제1 영역을 음성으로 변환하는 단계;를 더 포함할 수 있다.
또한 상기 방법은, 상기 제1 웹페이지에 포함된 보안 정보에 기초하여 상기 제1 영역을 상기 통신부를 통해 상기 외부장치로 전송할 수 있다.
본 개시의 다양한 실시 예들에 따른 전자장치의 웹 재현 방법은 디스플레이부에 제1 영역 및 제2 영역을 포함하는 제1 웹페이지를 표시하는 단계; 전자장치의 상태를 감지하는 단계; 및 상기 전자장치의 상태에 기초하여 상기 제1 영역 및 상기 제2 영역중 적어도 하나를 음성으로 변환하는 단계;를 포함할 수 있다. 상기 방법은, 상기 외부장치 상태 정보를 수신하는 단계; 및 상기 외부장치 상태 정보에 기초하여 상기 제1 영역을 상기 외부장치로 전송하는 단계;를 더 포함할 수 있다.
본 개시의 다양한 실시 예들에 따른 전자장치 및 전자장치의 웹 재현 방법은 센서부를 통해 전자장치의 상황을 감지하여 사용자의 의도를 파악하고, 이에 따라 디스플레이부에 표시된 시각 정보 기반의 웹페이지를 자동으로 음성 또는 진동과 같은 다른 모달리티 정보로 변환함으로써 사용자에게 끊김 없는 웹 정보를 제공하여 사용자에게 편리한 경험을 제공한다.
또한 음성을 통해 웹 정보를 제공 받고, 동시에 외부 전자장치에서 링크 객체를 표시하고 링크 객체를 통해 다른 웹페이지를 선택할 수 있어 사용자에게 편리한 경험을 제공한다.
도 1a 및 도 1b는 본 개시의 다양한 실시 예에 따른 전자장치의 블록도이다.
도 2a 내지 도2b는 본 개시의 다양한 실시 예에 따른 외부장치의 블록도들이다.
도 3은 전자장치 및 외부장치를 도시한 도면이다.
도 4는 전자장치에 표시된 제1 웹페이지의 일부가 외부장치에 표시된 것을 도시한 도면이다.
도 5는 전자장치의 디스플레이부에 제2 웹페이지가 표시된 것을 도시한 도면이다.
도 6은 전자장치에 상태에 따라 제1 웹페이지를 제1 모달리티 정보로 변환하는 과정을 도시한 흐름도이다.
도 7은 전자장치 상태 정보에 기초하여 제1 웹페이지의 제1 영역을 외부장치로 전송하는 과정을 도시한 흐름도이다.
도 8은 전자장치 상태 정보에 기초하여 제1 웹페이지에 포함된 제1 영역 및 제2 영역중 적어도 하나의 영역을 음성으로 변환하는 과정을 도시한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 개시(present disclosure)를 설명한다. 본 개시는 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 개시를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 개시 가운데 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 개시에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
개시에서 “또는” 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, “A 또는 B”는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 개시 가운데 “제 1,”“제2,”“첫째,”또는“둘째,”등의 표현들이 본 개시의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분 짓기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 개시에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 개시를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 개시에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 개시에서 ‘모듈’ 혹은 ‘부’는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의‘모듈’ 혹은 복수의‘부’는 특정한 하드웨어로 구현될 필요가 있는 ‘모듈’ 혹은 ‘부’를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
어플리케이션(application)은 컴퓨터용 OS(Operating System) 또는 모바일 OS 위에서 실행되어 사용자가 사용하는 소프트웨어를 의미한다. 예를 들어, 어플리케이션은 워드 프로세서, 스프레드 시트, 연락처(contacts) 어플리케이션, 캘린더(calendar) 어플리케이션, 메모(memo) 어플리케이션, 알람(alarm) 어플리케이션, SNS(Social Network System) 어플리케이션, 채팅(chatting) 어플리케이션, 지도(Map) 어플리케이션, 뮤직 플레이어 또는 비디오 플레이어를 포함할 수 있다. 본 개시에서 어플리케이션은 전자장치(100) 또는 전자장치(100)와 무선 또는 유선으로 연결되는 웨어러블 장치(예를 들어, 스마트 워치등)에서 실행되는 소프트웨어를 의미할 수 있다. 또한, 본 발명의 실시예에 따른 어플리케이션은 수신되는 사용자 입력에 대응하여 전자장치(100)에서 실행되는 소프트웨어를 의미할 수 있다.
본 개시에서, 웨어러블 장치(wearable device)는 안경, 시계 등과 같이 신체에 착용 가능하며 사용자와 인터랙션이 가능한 전자 장치를 의미한다. 웨어러블 장치는 사용자의 생체 정보(예를 들어, 혈압, 심박, 체온, 또는 뇌파 등) 및 사용자 주변의 환경 정보(예를 들어, 기온, 습도, 고도, 또는 자외선 등)를 검출할 수 있다. 웨어러블 장치는 전자장치(100) 및/또는 기지국과 무선 통신을 할 수 있다. 또한, 웨어러블 장치는 터치 스크린과 다양한 센서를 가질 수 있다.
본 개시의 실시 예에서는 사용자 상황 기반 멀티 모달(Multi-Modal) 웹 재현 방법을 구현하기 위해 전자장치 및 외부장치의 센서를 이용하여 주변 정보를 수집하여 사용자의 전자장치 실행환경을 파악하고, 식별된 사용자의 의도 및 상황에 따라 전자장치 및 외부장치의 특성에 맞게 시각 기반 웹을 음성, 진동 등의 다양한 모달리티 정보(Modality)로 변형하여 사용자에게 제공한다.
본 개시의 실시 예에서 웹페이지를 제1 모달리티 정보로 변환한다는 것은 웹페이지에 포함된 객체를 제1 모달리티 정보로 변환하는 것을 의미할 수 있다.
본 개시의 실시 예에서 웹페이지를 음성으로 변환한다는 것은 웹페이지에 포함된 객체, 예컨대 웹페이지에 포함된 텍스트 데이터를 음성 데이터, 즉 음성 정보로 변환하는 것을 의미할 수 있다. 웹페이지의 적어도 일부를 음성으로 변환한다는 것은 웹페이지에 포함된 객체중 일부분, 예컨대 웹페이지에 포함된 텍스트 데이터중 일부분을 음성 데이터, 즉 음성 정보로 변환하는 것을 의미할 수 있다.
본 개시의 실시 예에서 제1 영역은 제1 영역에 포함된 객체를 의미할 수 있다. 제2 영역은 제2 영역에 포함된 객체를 의미할 수 있다.
이하, 본 개시의 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1a 내지 도 1b 는 본 개시의 다양한 실시 예에 따른 전자장치(100)의 블록도이다. 본 개시의 실시 예에서는 웹페이지를 음성 및 링크 객체를 통해 제공한다. 특히 전자장치는 전자장치의 센서부에서 주변 환경 정보를 센싱하여 사용자가 전자장치를 사용하는 상황을 결정하고 이에 따라 자동으로 웹페이지를 음성 및 링크 객체로 조합하여 제공한다.
예를 들면, 사용자가 운동중일 때 전자장치에서는 음성으로 웹페이지를 제공받고, 스마트워치로는 웹페이지를 선택할 수 있는 링크 객체를 제공 받을 수 있다. 사용자가 전자장치를 가지고 운전중일 때 IVI(In-vehicle Infotainment)를 통해 음성으로 웹페이지를 제공받고, HUD(Head Up Display)를 통해 링크 객체 또는 웹페이지 전체를 제공 받을 수 있다.
도 1a를 참조하면 제어부(101), 디스플레이부(103), 통신부(105), 센서부(107)가 도시되어 있다. 제어부(101)는 프로세서, 전자장치(100)의 제어를 위한 제어 프로그램이 저장된 롬 및 전자장치(100)의 외부로부터 입력되는 신호 또는 데이터를 저장하거나 전자장치(100)에서 수행되는 다양한 작업에 대한 저장 영역으로 사용되는 램을 포함할 수 있다. 제어부(101)는 전자장치(100)의 전반적인 동작 및 전자장치(100)의 내부 구성 요소들간의 신호 흐름을 제어하고 데이터를 처리하는 기능을 수행할 수 있다.
제어부(101)는 센서부(107)에서 출력된 신호에 기초하여 디스플레이부(103)에 표시된 제1 웹페이지 중 적어도 일부를 제1 모달리티 정보로 변환할 수 있다. 즉, 제1 웹페이지에 포함된 텍스트 및 그래픽 객체의 적어도 일부를 시각 모달리티가 아닌 다른 모달리티, 예컨대 음성 모달리티로 변환할 수 있다.
또한 제어부(101)는 디스플레이부(103)에 표시된 제1 웹페이지의 일부를 센서부(107)에서 출력된 신호에 기초하여 제1 웹페이지 중 적어도 일부를 음성으로 변환하고, 수신된 외부장치 상태 정보에 기초하여 제1 웹페이지 중 적어도 일부를 외부장치로 전송할 수 있다.
또한 제어부(101)는 외부장치(200) 상태 정보에 기초하여 디스플레이부(103)에 표시된 제1 웹페이지를 외부장치(200)가 처리할 수 있는 정보로 변환할 수 있다. 예를 들면 외부장치(200)가 디스플레이부가 없는 경우, 제어부(101)는 제1 웹페이지를 음성 정보로 변환할 수 있다.
또한 제어부(101)는 위치정보 수신부(113)에서 출력된 신호에 기초하여 디스플레이부(103)에 표시된 제1 웹페이지 중 적어도 일부를 제1 모달리티 정보로 변환할 수 있다. 예를 들면 제어부(101)는 위치정보 수신부(113)에서 출력된 신호로부터 전자장치(100)가 영화관에 있는 것으로 판단되면, 제1 웹페이지를 음성 정보로 변환할 수 있다.
또한 제어부(101)는 디스플레이부(103)에 표시된 제1 웹페이지의 보안 정보에 기초하여 제1 웹페이지의 적어도 일부를 통신부(105)를 통해 외부장치(200)로 출력할 수 있다. 보안정보는 제1 웹페이지에 포함될 수 있다.
또한 제1 웹페이지는 제1 영역 및 제2 영역을 포함할 수 있다. 제1 영역은 제2 영역의 상위 메뉴일 수 있다. 예를 들면 제1 영역은 신문기사의 카테고리, 제2 영역은 신문기사 내용일 수 있다. 또는 제1 영역은 방송 채널명, 제2 영역은 동일 채널에 포함된 프로그램 명일 수 있다.
제어부(101)는 센서부(107)에서 출력된 신호에 기초하여 상기 제1 영역 및 상기 제2 영역 중 적어도 하나를 음성으로 변환하고, 수신된 외부장치 상태 정보에 기초하여 상기 제1 영역을 외부장치로 전송할 수 있다. 제어부(101)는 외부장치 상태 정보에 기초하여 제1 영역을 외부장치가 처리할 수 있는 정보로 변환할 수 있다. 외부장치 상태 정보는 외부장치가 가지고 있는 기능, 예컨대 디스플레이부 존재 여부 및 오디오 출력부 존재 여부에 대한 정보일 수 있다.
외부장치가 디스플레이부는 없고 오디오 출력부만 가진 경우, 제어부는 제1 영역을 외부장치가 처리할 수 있는 음성 정보로 변환할 수 있다.
디스플레이부(103)는 LCD, AMOLED 등과 같은 디스플레이 패널이 될 수 있다. 디스플레이부(103)는 전자장치(100)의 각종 동작 상태, 어플리케이션 실행 및 서비스 등에 따른 다양한 화면을 표시할 수 있다. 디스플레이부(103)는 터치를 감지할 수 있는 터치스크린일 수 있으며, 터치감지부와 디스플레이 패널을 포함할 수 있다. 터치감지부는 디스플레이 패널의 아래쪽에 위치할 수 있다. 디스플레이부(103)에는 컨텐트(content)가 표시될 수 있다. 컨텐트는 웹페이지, 이북(E-book) 페이지, 어플리케이션 실행화면, 정지 영상 및 동영상 일 수 있다. 또한 컨텐트는 그래픽 오브젝트 및 사용자 인터페이스 엘리먼트(User Interface Element)일 수 있다.
통신부(105)는 제어부(101)의 제어에 따라 하나 또는 둘 이상의 안테나를 이용하여 이동 통신망을 통해 외부장치(200)와 연결할 수 있다. 통신부(105)는 이동통신부(105)를 포함할 수 있으며, 음성 통화, 화상 통화, 문자메시지(SMS), 멀티미디어 메시지(MMS) 및 데이터 통신을 위한 무선 신호를 송/수신할 수 있다.
통신부(105)는 무선랜을 포함할 수 있으며 제어부(101)의 제어에 따라 AP(Access Point)와 무선으로 연결될 수 있다. 통신부(105)는 근거리 통신부를 포함할 수 있으며 제어부(101)의 제어에 따라 AP없이 무선으로 외부장치(200)와 근거리 통신을 할 수 있다. 근거리 통신은 예를 들어 블루투스(Bluetooth), 블루투스로우에너지(BLE : Bluetooth Low Energy), 적외선 통신(IrDA, infrared data association), 와이파이(Wi-Fi), UWB(Ultra Wideband) 및 NFC(Near Field Communication) 등을 포함할 수 있다.
본 개시의 실시 예에서 통신부(105)는 외부장치(200)와 통신을 수행할 수 있다. 통신부(105)는 외부장치(200)로부터 제1 신호를 수신할 수 있다. 제1 신호는 외부장치(200) 상태 정보일 수 있다. 또한 통신부(105)는 외부장치(200)로부터 제2 신호를 수신할 수 있다. 제2 신호는 외부장치(200)에서 사용자 입력이 발생했을 때 이에 대응하여 외부장치(200)가 출력하는 신호일 수 있다. 예를 들면 사용자가 외부장치(200)에 표시된 링크 객체를 터치하는 경우 발생될 수 있다. 외부장치(200)에 표시된 링크 객체는 텍스트일 수 있다. 또는 외부장치(200)에 표시된 링크 객체는 그래픽 오브젝트 일 수 있다. 외부장치(200)에 표시된 링크 객체는 전자장치(100)의 디스플레이부(103)에 표시된 제1 웹페이지에 포함된 링크 객체 중 일부분 일 수 있다. 또는 외부장치(200)에 표시된 링크 객체는 전자장치(100)의 디스플레이부(103)에 표시된 제1 웹페이지에 포함된 복수의 링크 객체와 동일할 수 있다. 제1 웹페이지에 포함된 링크 객체 중 적어도 일부분이 외부장치(200)에 표시된 상태에서 사용자가 하나의 링크 객체를 선택하면 외부장치(200)는 사용자 선택에 따라 제2 신호를 전자장치(100)로 전송할 수 있다.
즉, 외부장치(200)에서 사용자 입력을 수신하면 이에 대응하여 외부장치(200)는 제2 신호를 전자장치(100)로 출력할 수 있다. 제2 신호는 외부장치(200)에서 제1 웹페이지에 포함된 링크 객체 중 하나를 선택하는 사용자 입력에 기초한 신호일 수 있다.
센서부(107)는 전자장치(100) 상태 및 전자장치(100) 주변의 상태를 감지할 수 있다. 센서부(107)는 전자장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함할 수 있다. 예를 들어, 센서부(107)는 사용자의 전자장치(100)에 대한 접근 여부를 검출하는 근접 센서, 전자장치(100) 주변의 빛의 양을 검출하는 조도센서, 전자장치(100)의 회전관성을 이용하여 방향을 검출하는 자이로 센서를 포함할 수 있다. 또한, 센서부(107)는 전자장치(100)의 3축(예를 들어, x축, y축, z축)에 가해지는 가속도를 검출하는 가속도 센서(도시되지 아니함), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 또는 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter)를 포함할 수 있다.
센서부(107)는 전자장치(100)의 운동 가속도와 중력 가속도를 각각 검출할 수 있다. 고정된 전자장치(100)의 경우, 센서부(107)는 중력 가속도만 검출할 수 있다. 예를 들어, 전자장치(100)의 전면이 위로 향하는 경우, 중력 가속도는 양(+)방향이고, 전자장치(100)의 후면이 위로 향하는 경우, 중력가속도는 음(-)의 방향일 수 있다. 또한, 센서부(107)는 사용자의 지문을 검출하는 지문 센서(도시되지 아니함), 주위 자외선을 검출하는 자외선 센서(도시되지 아니함), 또는 사용자의 심장 박동을 검출하는 심박 센서(도시되지 아니함)를 더 포함할 수 있다.
센서부(107)에 포함되는 센서는 전자장치(100)의 상태를 검출하고, 검출에 대응되는 전기적인 신호를 제어부(101)로 전송한다. 본 개시의 실시 예에서 제어부(101)는 센서부(107)에서 출력된 신호에 기초하여 전자장치(100)의 상태를 결정할 수 있다. 예를 들면, 제어부(101)는 조도센서의 출력을 이용하여 전자장치(100)의 디스플레이부(103)가 커버로 덮여있는지 여부를 결정할 수 있다. 제어부(101)는 조도센서의 출력을 이용하여 전자장치(100)가 사용자의 가방 안에 있는지를 결정할 수 있다. 제어부(101)는 가속도 센서의 출력을 이용하여 전자장치(100)가 이동 중인지를 결정할 수 있다. 센서부(107)에 포함되는 센서는 전자장치(100)의 성능에 따라 추가되거나 삭제될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가지는 자에게 용이하게 이해될 것이다.
도 1b를 참조하면 제어부(101), 디스플레이부(103), 통신부(105), 센서부(107), 오디오 출력부(109), 진동발생부(111) 및 위치정보 수신부(113)가 도시되어 있다.
제어부(101)는 프로세서, 전자장치(100)의 제어를 위한 제어 프로그램이 저장된 롬 및 전자장치(100)의 외부로부터 입력되는 신호 또는 데이터를 저장하거나 전자장치(100)에서 수행되는 다양한 작업에 대한 저장 영역으로 사용되는 램을 포함할 수 있다. 제어부(101)는 전자장치(100)의 전반적인 동작 및 전자장치(100)의 내부 구성 요소들간의 신호 흐름을 제어하고 데이터를 처리하는 기능을 수행할 수 있다. 제어부(101)는 센서부(107)에서 출력된 신호에 기초하여 디스플레이부(103)에 표시된 제1 웹페이지 중 적어도 일부를 제1 모달리티 정보로 변환할 수 있다. 즉, 제1 웹페이지에 포함된 텍스트 및 그래픽 객체의 적어도 일부를 시각 모달리티가 아닌 다른 모달리티 정보, 예컨대 음성 모달리티로 변환할 수 있다. 예를 들면 제어부(101)는 디스플레이부에 표시된 제1 웹페이지의 일부를 센서부에서 출력된 신호에 기초하여 제1 웹페이지 중 적어도 일부를 음성 정보로 변환하고, 수신된 외부장치 상태 정보에 기초하여 제1 웹페이지중 적어도 일부를 외부장치로 전송할 수 있다.
또한 제어부(101)는 외부장치(200) 상태 정보에 기초하여 디스플레이부(103)에 표시된 제1 웹페이지를 외부장치(200)가 처리할 수 있는 정보로 변환할 수 있다. 또한 제어부(101)는 위치정보 수신부(113)에서 출력된 신호에 기초하여 디스플레이부(103)에 표시된 제1 웹페이지 중 적어도 일부를 제1 모달리티 정보로 변환할 수 있다. 또한 제어부(101)는 디스플레이부(103)에 표시된 제1 웹페이지에 포함된 보안 정보에 기초하여 제1 웹페이지의 적어도 일부를 통신부(105)를 통해 외부장치(200)로 출력할 수 있다.
디스플레이부(103)는 LCD, AMOLED 등과 같은 패널이 될 수 있다. 디스플레이부(103)는 전자장치(100)의 각종 동작 상태, 어플리케이션 실행 및 서비스 등에 따른 다양한 화면을 표시할 수 있다. 디스플레이부(103)는 터치를 감지할 수 있는 터치스크린일 수 있으며, 터치감지부와 디스플레이 패널을 포함할 수 있다. 터치감지부는 디스플레이 패널의 아래쪽에 위치할 수 있다. 디스플레이부(103)에는 컨텐트가 표시될 수 있다. 컨텐트는 웹페이지, 이북(E-book) 페이지, 어플리케이션 실행화면, 정지 영상 및 동영상 일 수 있다. 또한 컨텐트는 그래픽 오브젝트 및 사용자 인터페이스 엘리먼트(User Interface Element)일 수 있다.
통신부(105)는 제어부(101)의 제어에 따라 하나 또는 둘 이상의 안테나를 이용하여 이동 통신망을 통해 외부장치(200)와 연결할 수 있다. 통신부(105)는 이동통신부(105)를 포함할 수 있으며, 음성 통화, 화상 통화, 문자메시지(SMS), 멀티미디어 메시지(MMS) 및 데이터 통신을 위한 무선 신호를 송/수신할 수 있다.
통신부(105)는 무선랜을 포함할 수 있으며 제어부(101)의 제어에 따라 AP(Access Point)와 무선으로 연결될 수 있다. 통신부(105)는 근거리 통신부를 포함할 수 있으며 제어부(101)의 제어에 따라 AP없이 무선으로 외부장치(200)와 근거리 통신을 할 수 있다. 근거리 통신은 예를 들어 블루투스(Bluetooth), 블루투스로우에너지(BLE : Bluetooth Low Energy), 적외선 통신(IrDA, infrared data association), 와이파이(Wi-Fi), UWB(Ultra Wideband) 및 NFC(Near Field Communication) 등을 포함할 수 있다.
본 개시의 실시 예에서 통신부(105)는 외부장치(200)와 통신을 수행할 수 있다. 통신부(105)는 외부장치(200)로부터 제1 신호를 수신할 수 있다. 제1 신호는 외부장치(200) 상태 정보일 수 있다. 또한 통신부(105)는 외부장치(200)로부터 제2 신호를 수신할 수 있다. 제2 신호는 외부장치(200)에서 사용자 입력이 발생했을 때 이에 대응하여 외부장치(200)가 출력하는 신호일 수 있다. 예를 들면 사용자가 외부장치(200)에 표시된 링크 객체를 터치하는 경우 발생될 수 있다. 링크 객체는 텍스트일 수 있다. 또한 링크 객체는 그래픽 오브젝트 일 수 있다. 링크 객체는 제1 웹페이지에 포함된 링크 객체 중 일부분 일 수 있다. 또는 링크 객체는 제1 웹페이지에 포함된 복수의 링크 객체와 동일할 수 있다. 제1 웹페이지에 포함된 링크 객체 중 적어도 일부분이 외부장치(200)에 표시된 상태에서 사용자가 하나의 링크 객체를 선택하면 외부장치(200)는 사용자 선택에 따라 제2 신호를 전자장치(100)로 전송할 수 있다.
즉, 외부장치(200)에서 사용자 입력을 수신하면 이에 대응하여 제2 신호를 전자장치(100)로 출력할 수 있다. 제2 신호는 외부장치(200)에서 제1 웹페이지에 포함된 링크 객체 중 하나를 선택하는 사용자 입력에 기초한 신호일 수 있다.
센서부(107)는 전자장치(100) 상태 및 전자장치(100) 주변의 상태를 감지할 수 있다. 센서부(107)는 전자장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함할 수 있다. 예를 들어, 센서부(107)는 사용자의 전자장치(100)에 대한 접근 여부를 검출하는 근접 센서, 전자장치(100) 주변의 빛의 양을 검출하는 조도센서, 전자장치(100)의 회전관성을 이용하여 방향을 검출하는 자이로 센서를 포함할 수 있다. 또한, 센서부(107)는 전자장치(100)의 3축(예를 들어, x축, y축, z축)에 가해지는 가속도를 검출하는 가속도 센서(도시되지 아니함), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 또는 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter)를 포함할 수 있다.
센서부(107)는 전자장치(100)의 운동 가속도와 중력 가속도를 각각 검출할 수 있다. 고정된 전자장치(100)의 경우, 센서부(107)는 중력 가속도만 검출할 수 있다. 예를 들어, 전자장치(100)의 전면이 위로 향하는 경우, 중력 가속도는 양(+)방향이고, 전자장치(100)의 후면이 위로 향하는 경우, 중력가속도는 음(-)의 방향일 수 있다. 또한, 센서부(107)는 사용자의 지문을 검출하는 지문 센서(도시되지 아니함), 주위 자외선을 검출하는 자외선 센서(도시되지 아니함), 또는 사용자의 심장 박동을 검출하는 심박 센서(도시되지 아니함)를 더 포함할 수 있다.
센서부(107)에 포함되는 센서는 전자장치(100)의 상태를 검출하고, 검출에 대응되는 전기적인 신호를 제어부(101)로 전송한다. 본 개시의 실시 예에서 제어부(101)는 센서부(107)에서 출력된 신호에 기초하여 전자장치(100)의 상태를 결정할 수 있다. 예를 들면, 제어부(101)는 조도센서의 출력을 이용하여 전자장치(100)의 디스플레이부(103)가 커버로 덮여있는지 또는 전자장치(100)가 가방 안에 있는지를 결정할 수 있다. 제어부(101)는 가속도 센서의 출력을 이용하여 전자장치(100)가 이동 중인지를 결정할 수 있다.
오디오 출력부(109)는 전자장치(100)에 내장된 스피커 또는 이어폰잭을 포함할 수 있으며 전자장치(100)에서 합성된 음성, 저장부(미도시)에 저장되어 있는 음원 및 외부로부터 수신된 오디오 소스(예를 들어, 파일 확장자가 mp3, wma, ogg 또는 wav를 포함하는 오디오 파일)를 오디오 코덱을 이용하여 재생하고 음성으로 출력할 수 있다. 다양한 파일 확장자를 가지는 오디오 파일을 재생 가능한 다양한 종류의 오디오 코덱이 생산 및 판매되고 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다. 본 개시의 실시 예에 따라 오디오 출력부(109)는 제어부(101)의 제어에 따라 디스플레이부(103)에 표시된 제1 웹페이지에 포함된 정보 중 적어도 일부를 음성으로 출력할 수 있다. 예를 들면 제어부(101)는 제1 웹페이지에 포함된 텍스트를 TTS(Text To Speech) 엔진을 이용하여 음성으로 변환하여 출력하도록 오디오 출력부(109)를 제어할 수 있다. 텍스트는 링크 객체를 포함할 수 있다.
진동발생부(111)는 진동 모터를 포함할 수 있으며, 제어부(101)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 진동 모터는 리니어 진동 모터, 바 타입 진동 모터, 코인 타입 진동 모터 또는 압전 소자 진동 모터를 포함할 수 있다. 진동 모터는 전자장치(100) 전체를 진동 하거나 또는 전자장치(100)의 일 부분만을 진동 할 수도 있다. 본 개시의 실시예에 따라 진동발생부(111)는 제어부(101)의 제어에 따라 디스플레이부(103)에 표시된 제1 웹페이지에 포함된 정보 중 적어도 일부를 진동으로 출력할 수 있다. 예를 들면 제어부(101)는 제1 웹페이지에 포함된 텍스트를 TTS(Text To Speech) 엔진을 이용하여 음성으로 변환하는 경우, 링크 객체를 포함하는 텍스트에 대해서는 진동을 발생하도록 진동발생부(111)를 제어할 수 있다.
위치정보 수신부(113)는 GPS 수신부일 수 있다. GPS는 지구 궤도상에 있는 복수의 GPS 위성으로부터 주기적으로 신호(예를 들어, GPS 위성의 궤도 정보, 위성의 시간 정보 및 항법 메시지 등)를 수신한다. 실외의 경우, 전자장치(100)는 복수의 GPS위성으로부터 수신되는 신호를 이용하여 복수의 GPS 위성과 전자장치(100)의 위치를 산출하고, 송/수신 시간차를 이용하여 거리를 산출할 수 있다. 전자장치(100)는 삼각 측량을 통해 전자장치(100)의 위치, 시간 또는 이동 속도를 산출할 수 있다. 궤도 보정 또는 시간 보정을 위해 추가의 GPS 위성이 필요할 수 있다.
실내의 경우, 전자장치(100)는 무선 AP(도시되지 아니함)를 이용하여 전자장치(100)의 위치 또는 이동 속도를 검출할 수 있다. 실내에서 전자장치(100)의 위치 검출은 무선 AP의 ID를 이용한 셀 아이디(cell-ID) 방식, 무선 AP의 ID와 RSS(Received signal strength)를 이용한 강화 셀 아이디(enhanced cell-ID) 방식 또는 AP에서 전송된 신호의 휴대 장치(100)로 수신되는 각도를 이용한 AoA(Angle of Arrival) 방식을 이용할 수 있다. 또한, 전자장치(100)는 무선 비컨(beacon, 도시되지 아니함)을 이용하여 실내에 위치하는 전자장치(100)의 위치 또는 이동 속도를 검출할 수 있다. 상기의 방식뿐만 아니라 다양한 방식을 통해 전자장치(100)의 실내 위치를 검출할 수 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
본 개시의 실시예에서, 제어부(101)는 위치정보 수신부(113)를 이용한 실외 위치 또는 무선 AP를 이용한 실내 위치를 산출할 수 있다. 제어부(101)는 위치정보 수신부(113)에서 출력된 신호에 기초하여 디스플레이부(103)에 표시된 제1 웹페이지 중 적어도 일부를 제1 모달리티 정보로 변환할 수 있다. 예를 들면 전자장치가 영화관에 있는 경우 제어부는 디스플레이부(103)에 표시된 제1 웹페이지를 음성으로 변환할 수 있다.
제어부(101)는 중요도에 기초하여 디스플레이부(103)에 표시된 제1 웹페이지를 제1 모달리티 정보로 변환할 수 있다. 모달리티란 사용자가 전자장치(100)와 인터렉션을 위해 사용하는 감각일 수 있다. 이러한 모달리티는 데이터의 입출력, 미디어의 제어에 활용 될 수 있다. 제1 모달리티는 음성 또는 촉각 일 수 있다. 이하의 설명에서는 제1 모달리티 정보를 음성 정보로 가정하여 설명하나, 촉각 모달리티인 경우에도 동일한 방법이 적용될 수 있다.
제1 웹페이지가 디스플레이부(103)에 표시된 상태에서 제어부(101)는 센서부(107)에서 출력된 신호에 기초하여 제1 웹페이지 중 적어도 일부를 제1 모달리티 정보로 변환할 수 있다. 센서부(107)에서 출력된 신호는 전자장치(100)의 상태에 대한 정보를 포함하고 있다. 제어부(101)는 센서부(107)에서 출력된 신호를 수신하여 전자장치(100)의 상태를 결정할 수 있다. 예를 들면 제어부(101)는 센서부(107)에 포함된 조도센서에서 출력된 신호를 수신하고 분석하여 사용자가 전자장치(100)의 디스플레이부(103)를 응시하는지 판단할 수 있다. 제어부(101)는 센서부(107)에 포함된 조도센서에서 출력된 신호를 수신하고 분석하여 전자장치(100)의 디스플레이부(103)가 커버로 덮여 있는지를 판단할 수 있다. 제어부(101)는 센서부(107)에 포함된 조도센서에서 출력된 신호를 수신하고 분석하여 전자장치(100)가 가방 안에 있는지 판단할 수 있다. 전자장치(100)가 가방 안에 있거나 또는 전자장치(100)의 디스플레이부(103)가 커버로 덮여 있거나 또는 사용자가 전자장치(100)의 디스플레이부(103)를 응시하지 않는 것으로 판단되면 제어부(101)는 디스플레이부(103)에 표시된 제1 웹페이지의 전부 또는 일부를 TTS 엔진을 이용하여 음성으로 변환할 수 있다. 음성으로 변환된 제1 웹페이지는 오디오 출력부(109)를 통해 음성으로 출력될 수 있다.
제어부(101)는 제1 웹페이지에 포함된 중요도 정보를 참조하여 제1 웹페이지의 일부를 제1 모달리티 정보로 변환할 수 있다. 즉, 제어부(101)는 제1 웹페이지에 포함된 중요도 정보를 참조하여 제1 웹페이지의 일부를 음성 모달리티로 변환할 수 있다. 중요도 정보는 제1 웹페이지 전체에 대한 중요도 정보를 나타내거나 또는 제1 웹페이지에 포함된 특정 컨텐트, 예컨대 특정 키워드에 대응하는 텍스트에 따라 중요도가 다를 수 있다.
도 2a 내지 도 2b는 본 개시의 다양한 실시 예에 따른 외부장치의 블록도이다.
도 2a를 참조하면 제어부(201), 디스플레이부(203), 통신부(205), 센서부(207), 오디오 출력부(209), 진동발생부(211) 및 위치정보 수신부(213)가 도시되어 있다. 외부장치(200)는 웨어러블 장치일 수 있다.
제어부(201)는 프로세서, 외부장치(200)의 제어를 위한 제어 프로그램이 저장된 롬 및 외부장치(200)의 외부로부터 입력되는 신호 또는 데이터를 저장하거나 외부장치(200)에서 수행되는 다양한 작업에 대한 저장 영역으로 사용되는 램을 포함할 수 있다. 제어부(201)는 외부장치(200)의 전반적인 동작 및 외부장치(200)의 내부 구성 요소들간의 신호 흐름을 제어하고 데이터를 처리하는 기능을 수행할 수 있다.
디스플레이부(203)는 LCD, AMOLED 등과 같은 패널이 될 수 있다. 디스플레이부(203)는 외부장치(200)의 각종 동작 상태, 어플리케이션 실행 및 서비스 등에 따른 다양한 화면을 표시할 수 있다. 디스플레이부(203)는 터치를 감지할 수 있는 터치스크린일 수 있으며, 터치감지부와 디스플레이 패널을 포함할 수 있다. 터치감지부는 디스플레이 패널의 아래쪽에 위치할 수 있다. 디스플레이부(203)에는 전자장치로부터 전송된 제1 웹페이지의 일부분이 표시될 수 있다. 제1 웹페이지의 일부분은 링크 객체일 수 있다. 또한 디스플레이부(203)에는 컨텐트가 표시될 수 있다. 컨텐트는 웹페이지, 이북(E-book) 페이지, 어플리케이션 실행화면, 정지 영상 및 동영상 일 수 있다. 또한 컨텐트는 그래픽 오브젝트 및 사용자 인터페이스 엘리먼트(User Interface Element)일 수 있다.
통신부(205)는 제어부(201)의 제어에 따라 하나 또는 둘 이상의 안테나를 이용하여 이동 통신망과 연결할 수 있다. 통신부(205)는 이동통신부를 포함할 수 있으며, 음성 통화, 화상 통화, 문자메시지(SMS), 멀티미디어 메시지(MMS) 및 데이터 통신을 위한 무선 신호를 송/수신할 수 있다.
통신부(205)는 무선랜을 포함할 수 있으며 제어부(201)의 제어에 따라 AP(Access Point)와 무선으로 연결될 수 있다. 통신부(205)는 근거리 통신부를 포함할 수 있으며 제어부(201)의 제어에 따라 AP없이 무선으로 전자장치(100)와 근거리 통신을 할 수 있다. 근거리 통신은 예를 들어 블루투스(Bluetooth), 블루투스로우에너지(BLE : Bluetooth Low Energy), 적외선 통신(IrDA, infrared data association), 와이파이(Wi-Fi), UWB(Ultra Wideband) 및 NFC(Near Field Communication) 등을 포함할 수 있다.
본 개시의 실시 예에서 통신부(205)는 전자장치(200)와 통신을 수행할 수 있다. 통신부(205)는 전자장치(100)로부터 제1 웹페이지 정보를 수신할 수 있다. 제1 웹페이지는 링크 객체를 포함할 수 있다.
센서부(207)는 외부장치(200) 상태 및 외부장치(200) 주변의 상태를 감지할 수 있다. 센서부(207)는 외부장치(200)의 상태를 검출하는 적어도 하나의 센서를 포함할 수 있다. 예를 들어, 센서부(207)는 사용자의 외부장치(200)에 대한 접근 여부를 검출하는 근접 센서, 외부장치(200) 주변의 빛의 양을 검출하는 조도센서, 외부장치(200)의 회전관성을 이용하여 방향을 검출하는 자이로 센서를 포함할 수 있다. 또한, 센서부(207)는 외부장치(200)의 3축(예를 들어, x축, y축, z축)에 가해지는 가속도를 검출하는 가속도 센서(도시되지 아니함), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 또는 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter)를 포함할 수 있다.
센서부(207)는 외부장치(200)의 운동 가속도와 중력 가속도를 각각 검출할 수 있다. 또한, 센서부(207)는 사용자의 지문을 검출하는 지문 센서(도시되지 아니함), 주위 자외선을 검출하는 자외선 센서(도시되지 아니함), 또는 사용자의 심장 박동을 검출하는 심박 센서(도시되지 아니함)를 더 포함할 수 있다.
센서부(207)에 포함되는 센서는 외부장치(200)의 상태를 검출하고, 검출에 대응되는 전기적인 신호를 제어부(201)로 전송한다. 본 개시의 실시 예에서 제어부(201)는 센서부(207)에서 출력된 신호에 기초하여 외부장치(200)의 상태를 결정할 수 있다.
제어부(201)는 조도센서의 출력을 이용하여 외부장치(200)가 사용자의 가방 안에 있는지를 결정할 수 있다. 제어부(201)는 가속도 센서의 출력을 이용하여 외부장치(200)가 이동 중인지를 결정할 수 있다.
오디오 출력부(209)는 외부장치(200)에 내장된 스피커 또는 이어폰잭을 포함할 수 있으며 외부장치(200)에서 합성된 음성, 저장부(미도시)에 저장되어 있는 음원 및 외부로부터 수신된 오디오 소스(예를 들어, 파일 확장자가 mp3, wma, ogg 또는 wav를 포함하는 오디오 파일)를 오디오 코덱을 이용하여 재생하고 음성으로 출력할 수 있다. 다양한 파일 확장자를 가지는 오디오 파일을 재생 가능한 다양한 종류의 오디오 코덱이 생산 및 판매되고 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
진동발생부(211)는 진동 모터를 포함할 수 있으며, 제어부(201)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 진동 모터는 리니어 진동 모터, 바 타입 진동 모터, 코인 타입 진동 모터 또는 압전 소자 진동 모터를 포함할 수 있다. 진동 모터는 외부장치(200) 전체를 진동 하거나 또는 외부장치(200)의 일 부분만을 진동 할 수도 있다.
위치정보 수신부(213)는 GPS 수신부일 수 있다. GPS는 지구 궤도상에 있는 복수의 GPS 위성으로부터 주기적으로 신호(예를 들어, GPS 위성의 궤도 정보, 위성의 시간 정보 및 항법 메시지 등)를 수신한다. 실외의 경우, 외부장치(200)는 복수의 GPS위성으로부터 수신되는 신호를 이용하여 복수의 GPS 위성과 외부장치(200)의 위치를 산출하고, 송/수신 시간차를 이용하여 거리를 산출할 수 있다. 외부장치(200)는 삼각 측량을 통해 외부장치(200)의 위치, 시간 또는 이동 속도를 산출할 수 있다. 궤도 보정 또는 시간 보정을 위해 추가의 GPS 위성이 필요할 수 있다.
실내의 경우, 외부장치(200)는 무선 AP(도시되지 아니함)를 이용하여 외부장치(200)의 위치 또는 이동 속도를 검출할 수 있다
본 개시의 실시예에서, 제어부(201)는 위치정보 수신부(213)를 이용한 실외 위치 또는 무선 AP를 이용한 실내 위치를 산출할 수 있다.
도 2b를 참조하면 제어부(301), 디스플레이부(303), 통신부(305), 센서부(307), 오디오 출력부(309), 진동발생부(311) 및 위치정보 수신부(313)가 도시되어 있다. 외부장치(300)는 자동차에 장착되는 IVI일 수 있다.
제어부(301)는 프로세서, 외부장치(300)의 제어를 위한 제어 프로그램이 저장된 롬 및 외부장치(300)의 외부로부터 입력되는 신호 또는 데이터를 저장하거나 외부장치(300)에서 수행되는 다양한 작업에 대한 저장 영역으로 사용되는 램을 포함할 수 있다. 제어부(301)는 외부장치(300)의 전반적인 동작 및 외부장치(300)의 내부 구성 요소들간의 신호 흐름을 제어하고 데이터를 처리하는 기능을 수행할 수 있다.
디스플레이부(303)는 HUD(Head Up Display)일 수 있다. 디스플레이부(303)는 외부장치(300)의 각종 동작 상태, 어플리케이션 실행 및 서비스 등에 따른 다양한 화면을 표시할 수 있다. 디스플레이부(303)는 터치를 감지할 수 있는 터치스크린일 수 있으며, 터치감지부와 디스플레이 패널을 포함할 수 있다. 터치감지부는 디스플레이 패널의 아래쪽에 위치할 수 있다.
디스플레이부(303)에는 전자장치(100)로부터 전송된 제1 웹페이지의 일부분이 표시될 수 있다. 제1 웹페이지의 일부분은 링크 객체일 수 있다. 또한 디스플레이부(303)에는 컨텐트가 표시될 수 있다. 컨텐트는 자동차 주행과 관련된 정보, 웹페이지, 이북(E-book) 페이지, 어플리케이션 실행화면, 정지 영상 및 동영상 일 수 있다. 또한 컨텐트는 그래픽 오브젝트 및 사용자 인터페이스 엘리먼트(User Interface Element)일 수 있다.
통신부(305)는 제어부(301)의 제어에 따라 하나 또는 둘 이상의 안테나를 이용하여 이동 통신망과 연결할 수 있다. 통신부(305)는 이동통신부를 포함할 수 있으며, 음성 통화, 화상 통화, 문자메시지(SMS), 멀티미디어 메시지(MMS) 및 데이터 통신을 위한 무선 신호를 송/수신할 수 있다.
통신부(305)는 근거리 통신부를 포함할 수 있으며 제어부(301)의 제어에 따라 전자장치(100)와 근거리 통신을 할 수 있다. 근거리 통신은 예를 들어 블루투스(Bluetooth), 블루투스로우에너지(BLE : Bluetooth Low Energy), 적외선 통신(IrDA, infrared data association), 와이파이(Wi-Fi), UWB(Ultra Wideband) 및 NFC(Near Field Communication) 등을 포함할 수 있다.
본 개시의 실시 예에서 통신부(305)는 전자장치(100)와 통신을 수행할 수 있다. 통신부(305)는 전자장치(100)로부터 제1 웹페이지 정보를 수신할 수 있다. 제1 웹페이지는 링크 객체를 포함할 수 있다.
센서부(307)는 외부장치(300) 상태 및 외부장치(300) 주변의 상태를 감지할 수 있다. 센서부(307)는 외부장치(300)의 상태를 검출하는 적어도 하나의 센서를 포함할 수 있다. 예를 들어, 센서부(307)는 사용자의 외부장치(300)에 대한 접근 여부를 검출하는 근접 센서, 외부장치(300) 주변의 빛의 양을 검출하는 조도센서, 외부장치(300)의 회전관성을 이용하여 방향을 검출하는 자이로 센서를 포함할 수 있다. 또한, 센서부(307)는 외부장치(300)의 3축(예를 들어, x축, y축, z축)에 가해지는 가속도를 검출하는 가속도 센서(도시되지 아니함), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 또는 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter)를 포함할 수 있다.
센서부(307)는 외부장치(300)의 운동 가속도와 중력 가속도를 각각 검출할 수 있다. 또한, 센서부(307)는 사용자의 지문을 검출하는 지문 센서(도시되지 아니함), 주위 자외선을 검출하는 자외선 센서(도시되지 아니함), 또는 사용자의 심장 박동을 검출하는 심박 센서(도시되지 아니함)를 더 포함할 수 있다.
센서부(307)에 포함되는 센서는 외부장치(300)의 상태를 검출하고, 검출에 대응되는 전기적인 신호를 제어부(301)로 전송한다. 본 개시의 실시 예에서 제어부(301)는 센서부(307)에서 출력된 신호에 기초하여 외부장치(300)의 상태를 결정할 수 있다.
제어부(301)는 가속도 센서의 출력을 이용하여 외부장치(300)가 이동 중인지를 결정할 수 있다.
오디오 출력부(309)는 외부장치(300)에 내장된 스피커 또는 이어폰잭을 포함할 수 있으며 외부장치(300)에서 합성된 음성, 저장부(미도시)에 저장되어 있는 음원 및 외부로부터 수신된 오디오 소스(예를 들어, 파일 확장자가 mp3, wma, ogg 또는 wav를 포함하는 오디오 파일)를 오디오 코덱을 이용하여 재생하고 음성으로 출력할 수 있다. 다양한 파일 확장자를 가지는 오디오 파일을 재생 가능한 다양한 종류의 오디오 코덱이 생산 및 판매되고 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
진동발생부(311)는 진동 모터를 포함할 수 있으며, 제어부(301)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 진동 모터는 리니어 진동 모터, 바 타입 진동 모터, 코인 타입 진동 모터 또는 압전 소자 진동 모터를 포함할 수 있다. 진동 모터는 외부장치(300) 전체를 진동 하거나 또는 외부장치(300)의 일 부분만을 진동 할 수도 있다.
위치정보 수신부(313)는 GPS 수신부일 수 있다. GPS는 지구 궤도상에 있는 복수의 GPS 위성으로부터 주기적으로 신호(예를 들어, GPS 위성의 궤도 정보, 위성의 시간 정보 및 항법 메시지 등)를 수신한다. 외부장치(300)는 복수의 GPS위성으로부터 수신되는 신호를 이용하여 복수의 GPS 위성과 외부장치(300)의 위치를 산출하고, 송/수신 시간차를 이용하여 거리를 산출할 수 있다. 외부장치(300)는 삼각 측량을 통해 외부장치(300)의 위치, 시간 또는 이동 속도를 산출할 수 있다. 궤도 보정 또는 시간 보정을 위해 추가의 GPS 위성이 필요할 수 있다.
도 3은 전자장치 및 외부장치를 도시한 도면이다. 도3 을 참조하면 전자장치(100) 및 외부장치(200, 300)가 도시되어 있다. 이하 도 2a, 도 2b 및 도 3을 참조하여 설명한다. 전자장치(100)의 디스플레이부(103)에는 제1 웹페이지가 표시되어 있다. 제1 웹페이지는 링크 객체 및 일반 객체를 포함할 수 있다. 링크 객체는 링크 정보를 포함하는 객체로, 텍스트(130, 140), 이미지(150a, 150b), 동영상 등과 같은 컨텐트 항목, 버튼 항목 또는, 메뉴 항목이 될 수 있다. 또한 제1 웹페이지는 링크 정보가 없는 일반 객체를 포함할 수 있다. 일반 객체는 텍스트, 이미지, 동영상 등과 같은 컨텐트 항목, 버튼 항목 또는 메뉴 항목이 될 수 있다.
제어부(101)는 TTS(Text To Speech) 엔진을 이용하여 제1 웹페이지에 포함된 링크 객체 및 일반 객체를 음성으로 변환할 수 있다. 링크 객체 및 일반 객체가 텍스트인 경우, 링크 정보를 포함하는 텍스트(130, 140)는 일반 텍스트(151, 153)와 다른 음성으로 변환될 수 있다. 예를 들면 링크 정보를 포함하는 텍스트는 여자 음성으로, 링크 정보를 포함하지 않는 일반 텍스트는 남자 음성으로 변환될 수 있다. 텍스트(130, 140, 151, 153)는 중요도에 따라 우선순위가 결정될 수 있다. 제1 웹페이지는 객체, 예컨대 텍스트에 대한 중요도 정보를 포함할 수 있다. 또한 제1 웹페이지는 페이지 자체에 대한 중요도 정보를 포함할 수 있다. 제어부(101)는 중요도에 따라 디스플레이부(103)에 표시되는 텍스트의 위치를 결정할 수 있다. 제어부(101)는 중요도가 높은 텍스트일수록 디스플레이부(103)의 상단 영역에 배치할 수 있다. 예를 들면 텍스트(130)는 컨텐트의 카테고리를 나타내는 텍스트이며 디스플레이부(103)의 상단 영역에 표시되어 있다. 텍스트(140)는 텍스트(130)에 비해 상대적으로 중요도가 낮으며 디스플레이부(103)의 중간 영역에 표시되어 있다. 이미지(150a, 150b) 및 이미지에 대한 설명을 나타내는 텍스트(151, 153)는 중요도가 텍스트(140)보다 낮아 디스플레이부(103)의 하단에 표시된다. 중요도 정보는 숫자로 표현될 수 있다. 예를 들어 중요도 레벨이 ‘1’ 내지 ‘10’인 경우, 텍스트(130)는 중요도 레벨이 ‘10’일 수 있다. 텍스트(140)는 중요도 레벨이 ‘7’일 수 있다. 텍스트(151. 153)는 중요도 레벨이 ‘5’일 수 있다.
제어부(101)는 제1 웹페이지에 포함된 중요도 정보에 기초하여 제1 웹페이지의 적어도 일부를 통신부(105)를 통해 외부장치(200)로 전송할 수 있다. 예를 들면 제어부(101)는 중요도가 높은 텍스트(130)는 통신부(105)를 통해 외부장치(200)로 전송할 수 있다. 이 경우, 제어부(101)는 외부장치(200)로 전송하는 텍스트(130)에 대해서는 음성으로 변환하지 않을 수 있다.
또한 제어부(101)는 제1 웹페이지에 포함된 중요도 정보에 기초하여 제1 웹페이지의 일부는 통신부(105)를 통해 외부장치(200)로 전송하고 제1 웹페이지의 나머지 일부는 음성으로 변환할 수 있다. 예를 들면 제어부(101)는 중요도가 높은 텍스트(130)는 통신부(105)를 통해 외부장치(200)로 전송하고, 중요도가 낮은 텍스트(140, 151, 153)는 음성으로 변환할 수 있다.
제어부(101)는 제1 웹페이지 전체를 통신부(105)를 통해 외부장치(200)로 전송할 수 있다. 즉, 제1 웹페이지에 포함되어 있는 모든 객체를 통신부(105)를 통해 외부장치(200)로 전송할 수 있다. 또는 제어부(101)는 제1 웹페이지에 포함되어 있는 객체, 예컨대 텍스트 전체를 음성으로 변환할 수 있다.
외부장치(200)는 웨어러블 장치일 수 있다. 외부장치(200)는 디스플레이부(203), 통신부(205), 센서부(207), 오디오 출력부(209) 및 제어부(201)를 포함할 수 있다. 외부장치(200)의 센서부(207)는 사용자의 생체정보를 수집할 수 있다. 외부장치(200)는 센서부(207)를 통해 수집된 사용자의 생체정보를 전자장치(100)로 전송할 수 있다. 외부장치(200)는 외부장치(200)의 통신부(205)를 통해 외부장치(200)의 상태 정보를 전자장치(100)로 전송할 수 있다. 외부장치(200)의 상태 정보에는 외부장치(200)의 디스플레이 크기, 외부장치(200)가 가지고 있는 기능 및 외부장치(200)가 처리할 수 있는 데이터의 종류에 대한 정보가 포함될 수 있다. 외부장치(200)는 전자장치(100)와 비교하여 상대적으로 작은 디스플레이부(203)를 가질 수 있다. 따라서 외부장치(200)는 전자장치(200)의 디스플레이부(103)에 표시되어 있는 제1 웹페이지의 일부분만을 표시할 수 있다.
예를 들면 외부장치(200)의 상태 정보는 외부장치(200)가 디스플레이부를 가지고 있는지, 외부장치가 음향을 출력하기 위한 스피커를 가지고 있는지, 외부장치가 진동 발생부를 가지고 있는지, 외부장치가 생체정보를 수집하는 센서를 가지고 있는지에 대한 정보를 포함할 수 있다.
외부장치(200)의 디스플레이부(203)는 터치 입력을 감지할 수 있다. 외부장치(200)의 디스플레이부(203)에는 전자장치(100)로부터 수신한 제1 웹페이지의 일부 또는 전체가 표시될 수 있다. 외부장치(200)의 디스플레이부에 제1 웹페이지의 일부가 표시된 상태에서 사용자가 디스플레이부(203)를 터치하면 외부장치(200)는 사용자 터치 입력에 기초한 제2 신호를 전자장치(100)로 전송할 수 있다. 사용자 터치 입력에는 탭, 스와이프, 더블탭, 플릭 및 터치&드래그 동작이 포함될 수 있다.
제1 웹페이지는 제1 영역(130) 및 제2 영역(140)을 포함할 수 있다. 제1 영역(130)은 제2 영역(140)의 상위 메뉴일 수 있다. 예를 들면 제1 웹페이지가 신문기사 인 경우, 제1 영역(130)은 신문기사의 카테고리명(category name)일 수 있다. 제2 영역(140)은 동일 카테고리에 속하는 기사의 제목일 수 있다.
제어부(101)는 센서부에서 출력된 신호에 기초하여 상기 제1 영역(130) 및 상기 제2 영역(140)중 적어도 하나를 음성으로 변환하고, 통신부를 통해 수신된 외부장치 상태 정보에 기초하여 상기 제1 영역(130)을 외부장치로 전송하도록 제어할 수 있다. 제1 영역(130)을 전송한다는 것은 제1 영역(130)에 포함된 텍스트 데이터 또는 링크 객체를 전송하는 것을 의미한다. 제2 영역(140)을 음성으로 변환하는 것은 제2 영역(140)에 포함된 텍스트 데이터를 음성 정보로 변환하는 것을 의미한다.
외부장치(200)는 링크 객체를 수신하고 디스플레이부(203)에 표시할 수 있다. 제어부(101)는 통신부를 통해 외부장치에 표시된 링크 객체 중 하나를 선택하는 사용자 입력에 기초한 신호를 수신하고, 상기 신호에 기초하여 상기 선택된 링크 객체에 대응하는 제2 웹페이지를 전자장치(100)의 디스플레이부(103)에 표시하도록 디스플레이부(103)를 제어할 수 있다.
사용자는 외부장치에 표시된 링크 객체 선택을 위해 디스플레이부(203)에 표시된 링크 객체를 직접 터치하여 선택하거나 또는 사용자의 음성 명령으로 선택할 수 있다.
전자장치(100)는 수신된 외부장치(200)의 상태 정보에 기초하여 제1 영역(130)을 외부장치(200)가 처리할 수 있는 정보로 변환할 수 있다. 외부장치(200)의 상태 정보는 외부장치(200)의 디스플레이 크기, 외부장치(200)가 가지고 있는 기능 및 외부장치(200)가 처리할 수 있는 데이터의 종류에 대한 정보가 포함될 수 있다. 외부장치(200)는 전자장치(100)와 비교하여 상대적으로 작은 디스플레이부(203)를 가질 수 있다. 따라서 외부장치(200)는 전자장치(200)의 디스플레이부(103)에 표시되어 있는 제1 웹페이지의 일부분만을 표시할 수 있다.
예를 들면 외부장치(200)의 상태 정보는 외부장치(200)가 디스플레이부를 가지고 있는지, 외부장치가 음향을 출력하기 위한 스피커를 가지고 있는지, 외부장치가 진동 발생부를 가지고 있는지, 외부장치가 생체정보를 수집하는 센서를 가지고 있는지에 대한 정보를 포함할 수 있다.
전자장치(100)는 전자장치(100)의 위치정보를 수신하는 위치정보 수신부(113)를 더 포함하고, 위치정보 수신부에서 출력된 신호에 기초하여 제1 영역(130)을 음성으로 변환할 수 있다.
전자장치(100)는 GPS 신호 및 무선 AP를 이용하여 전자장치(100)의 위치를 결정할 수 있다. 제어부(101)는 전자장치(100)의 위치 정보에 기초하여 제1 웹페이지 중 적어도 일부를 음성으로 변환할 수 있다. 예를 들면 위치정보를 분석하여 사용자가 야외에서 활동중인 것으로 결정되면 제어부(101)는 디스플레이부(103)에 표시된 제1 웹페이지를 음성으로 변환할 수 있다. 사용자가 극장 내부에 있는 것으로 판단되면 제어부는 디스플레이부(103)에 표시된 제1 웹페이지를 음성으로 변환할 수 있다. 극장 내부에서는 주변이 어두우며, 센서부는 주변의 밝기를 감지할 수 있다. 제어부는 센서부에서 출력된 신호를 분석하여 주변 밝기를 결정하고 디스플레이부에 표시된 제1 웹페이지를 음성으로 변환하여 출력하고 디스플레이부를 오프 시킬 수 있다.
제어부는 위치정보 수신부로부터 신호를 수신하고 이에 기초하여 전자장치의 이동속도를 결정할 수 있다. 전자장치의 이동 속도가 설정된 값보다 빠른 경우 제어부는 사용자가 운전중인 것으로 판단하고 디스플레이부(103)에 표시된 제1 웹페이지를 음성으로 변환할 수 있다. 예컨대, 전자장치의 이동 속도가 시속 20Km보다 큰 경우 제어부는 사용자가 운전중인 것으로 결정하고 제1 웹페이지를 음성으로 변환할 수 있다.
제어부(101)는 제1 웹페이지에 포함된 보안 정보에 기초하여 제1 영역(130)을 통신부(105)를 통해 외부장치(200)로 전송할 수 있다.
외부장치(300)는 IVI(In Vehicle Information)일 수 있다. IVI는 차량에 장착되어 정보를 제공해주는 단말장치 이다 IVI는 디스플레이부(303), 통신부(305), 센서부(307), 오디오 출력부(309) 및 제어부(301)를 포함할 수 있다. IVI의 디스플레이부(303)는 전자장치(100)의 디스플레이부(103)보다 상대적으로 클 수 있다. IVI의 디스플레이부(303)는 HUD(Head Up Display)일 수 있다. 사용자가 전자장치(100)를 가지고 자동차에 탑승한 경우, 전자장치(100)의 제어부(101)는 통신부(105)를 통해 IVI(300)의 상태 정보를 수신하고, IVI와 연결을 시도할 수 있다. IVI가 연결되면 제어부(101)는 수신된 IVI의 상태 정보에 기초하여 전자장치(100)의 디스플레이부(103)에 표시되어 있는 제1 웹페이지를 IVI가 처리할 수 있는 정보로 변환한다. 전자장치(100)는 센서부(107)를 통해 전자장치(100)가 이동중임을 판단할 수 있으며, 전자장치(100)는 디스플레이부(103)에 표시되어 있는 제1 웹페이지를 음성으로 변환하고 변환된 제1 웹페이지의 음성정보를 IVI로 전송할 수 있다. IVI는 통신부(305)를 통해 수신한 음성정보를 오디오출력부(309)를 통해 출력할 수 있다. IVI가 HUD를 가지고 있는 경우, 전자장치(100)는 디스플레이부(103)에 표시되어 있는 제1 웹페이지를 음성 정보로 변환하지 않고 IVI로 전송할 수 있다. IVI는 HUD에 수신한 제1 웹페이지를 표시할 수 있다. 이 때 HUD에는 제1 웹페이지 전체 또는 일부분이 표시될 수 있다. IVI가 진동 발생부(311)를 가지고 있는 경우, 전자장치(100)는 디스플레이부(103)에 표시되어 있는 제1 웹페이지의 전체 또는 일부를 진동 발생을 위한 정보로 변환하고 IVI로 전송할 수 있다.
예를 들면, 사용자가 전자장치(100)로 웹브라우징을 하는 중에 차량으로 이동하고, 차량에 탑승하여 운전을 시작하면 제어부(101)는 센서부(107)를 통해 전자장치(100)가 사용되는 환경을 인식할 수 있다. 사용자가 차량에 탑승함에 따라 전자장치(100)는 통신부를 통해 IVI와 연결되고, 전자장치(100)는 통신부를 통해 디스플레이부(103)에 표시된 제1 웹페이지를 IVI로 전송한다.
전자장치(100)는 IVI의 디스플레이부의 화면 해상도와 화면 비율을 고려하여 제1 웹페이지의 해상도를 변경하여 전송할 수 있다. 차량이 주행하기 시작하면 전자장치(100)는 제1 웹페이지를 음성으로 변환하여 IVI로 전송할 수 있고, 차량의 스피커를 통해 제1 웹페이지에 대응하는 음성이 출력될 수 있다. 또한 전자장치(100)는 음성으로 변환된 제1 웹페이지 뿐만 아니라 제1 웹페이지 전체 또는 일부를 IVI로 함께 전송할 수 있다. 이 경우, 차량의 스피커를 통해 제1 웹페이지에 대응하는 음성이 출력되고 동시에 IVI의 디스플레이부에 제1 웹페이지에 대한 간략정보가 표시될 수 있다. 제1 웹페이지에 대한 간략 정보는 제1 웹페이지에 포함된 컨텐트의 일부분 일 수 있다. 예를 들면 제1 웹페이지가 신문 기사 인 경우 간략 정보는 신문 기사 타이틀의 일 부분일 수 있다. 차량이 정지하거나 또는 직선 주행하는 것으로 판단되면 전자장치는 사용자의 음성 명령을 통해 제1 웹페이지 전체를 IVI의 디스플레이부에 표시할 수 있도록 제어할 수 있다.
도 4는 전자장치(100)에 표시된 제1 웹페이지의 일부가 외부장치(200)에 표시된 것을 도시한 도면이다. 도 4를 참조하면 전자장치(100) 및 외부장치(200)가 도시되어 있다. 전자장치(100)와 외부장치(200)는 무선으로 연결될 수 있다. 전자장치(100)는 스마트폰일 수 있으며, 외부장치(200)는 스마트워치일 수 있다.
전자장치(100)의 디스플레이부(103)에는 제1 웹페이지가 표시되어 있다. 제1 웹페이지는 링크 객체 및 일반 객체를 포함할 수 있다. 링크 객체는 링크 정보를 포함하는 객체로, 텍스트(130, 140), 이미지(150a, 150b), 동영상 등과 같은 컨텐트 항목, 버튼 항목 또는, 메뉴 항목이 될 수 있다. 또한 제1 웹페이지는 링크 정보가 없는 일반 객체를 포함할 수 있다. 일반 객체는 텍스트, 이미지, 동영상 등과 같은 컨텐트 항목, 버튼 항목 또는 메뉴 항목이 될 수 있다.
제어부(101)는 제1 웹페이지에서 링크 객체 및 일반 객체를 분리하고, 링크 객체에서 링크 정보를 추출할 수 있다. 링크 정보는 제2 웹페이지에 대한 주소일 수 있다. 제어부(101)는 제1 웹페이지에서 링크 객체를 분리하여 외부장치(200)로 전송하고, 일반 객체는 음성으로 변환하여 음성으로 출력할 수 있다. 사용자는 제1 웹페이지의 컨텐트(content)를 음성으로 들으면서 외부장치(200)에 표시된 링크 객체를 선택하여 제2 웹페이지로 쉽게 이동할 수 있다.
제어부(101)는 전자장치(100)의 상태에 따라 시각 기반의 제1 웹페이지 중에서 일부는 음성으로 변환하고 일부는 외부장치(200)로 전송할 수 있다. 전자장치(100)의 상태는 센서부(107)에서 출력된 신호를 분석하여 결정할 수 있다. 제어부(101)는 센서부(107)에서 출력된 신호를 수신하고 수신된 신호에 기초하여 전자장치(100)의 상태를 결정할 수 있다.
제어부(101)는 센서부(107)에서 출력된 신호에 기초하여 제1 웹페이지 중 적어도 일부를 제1 모달리티 정보로 변환할 수 있다. 제1 모달리티는 음성 모달리티일 수 있으며, 제어부(101)는 센서부(107)에서 출력된 신호에 기초하여 제1 웹페이지 중 적어도 일부를 음성으로 변환할 수 있다. 또는 제1 모달리티는 촉각 모달리티일 수 있으며, 제어부(101)는 센서부(107)에서 출력된 신호에 기초하여 제1 웹페이지 중 적어도 일부를 진동 정보로 변환할 수 있다.
예를 들면 전자장치(100)의 상태는 디스플레이부(103)가 커버로 덮여 있는 상태일 수 있다. 제어부(101)는 센서부(107)에서 출력된 신호에 기초하여 전자장치(100)의 디스플레이부(103)가 커버로 덮여 있는 것으로 판단되는 경우, 제1 웹페이지를 음성으로 변환할 수 있다.
제어부(101)는 센서부(107)에서 출력된 신호에 기초하여 전자장치(100)가 가방 안에 있는 것으로 판단되는 경우, 제1 웹페이지를 음성으로 변환할 수 있다. 예를 들면 디스플레이부(103)에 제1 웹페이지가 표시된 상태에서 사용자가 전자장치를 가방안에 넣은 경우, 센서부(107)에서 출력되는 신호가 변경될 수 있으며, 제어부(101)는 센서부에서 출력되는 신호가 변경됨에 따라 전자장치가 가방 안에 있는 것으로 판단할 수 있다. 이 경우, 제어부는 제1 웹페이지에 포함된 컨텐트를 음성 정보로 변환하고, 오디오 출력부(109)를 통해 음성이 출력되도록 제어할 수 있다. 즉, 제어부(101)는 디스플레이부(103)에 제1 웹페이지가 표시된 상태에서 센서부(107)의 출력신호가 변경되는 경우, 제1 웹페이지를 음성으로 변환할 수 있다.
제어부(101)는 센서부(107)에서 출력된 신호에 기초하여 사용자가 전자장치(100)의 디스플레이부(103)를 응시하는지를 판단하여 제1 웹페이지를 음성으로 변환할 수 있다.
디스플레이부(103)에 제1 웹페이지가 표시된 상태에서 전자장치(100)에 이어폰이 연결되면 제어부(101)는 제1 웹페이지를 음성으로 변환할 수 있다. 제어부(101)는 음성으로 변환된 제1 웹페이지를 오디오 출력부(109)를 통해 음성으로 출력할 수 있다.
전자장치(100)는 통신부(105)를 통해 외부장치(200) 상태 정보를 수신하고, 제어부(101)는 외부장치(200) 상태 정보에 기초하여 제1 웹페이지 중 적어도 일부를 외부장치(200)로 전송 할 수 있다. 외부장치(200)는 웨어러블 장치일 수 있다. 외부장치(200)는 디스플레이부(203), 오디오출력부(209) 및 진동발생부(211) 중 적어도 하나를 포함할 수 있다. 외부장치(200)의 상태 정보는 외부장치(200)가 어떤 기능을 가지고 있는지, 어떤 정보를 처리할 수 있는지에 대한 정보일 수 있다.
예를 들면 외부장치(200)가 디스플레이부(203)를 가지고 있는지, 또는 외부장치(200)가 오디오 출력부(209)를 가지고 있는지, 또는 외부장치(200)가 진동발생부(211)를 가지고 있는지에 대한 정보일 수 있다.
제어부(101)는 통신부(105)를 통해 외부장치(200)의 상태 정보가 수신되면 수신된 신호에 기초하여 외부장치(200)가 가지고 있는 기능을 결정할 수 있다. 제어부(101)는 외부장치(200)가 가지고 있는 기능이 결정되면 전자장치(100)의 디스플레이부(103)에 표시된 제1 웹페이지를 외부장치(200)가 어떤 방식으로 처리할 수 있는지를 결정하고 외부장치(200)가 처리할 수 있는 방식으로 제1 웹페이지를 변환한다.
예를 들면 외부장치(200)가 디스플레이부(203)를 가지고 있는 경우 제어부(101)는 통신부(105)를 통해 수신된 외부장치(200) 상태 정보로부터 외부장치(200)의 디스플레이부(203)의 해상도를 결정하고, 해상도에 따라 제1 웹페이지 중 적어도 일부를 외부장치(200)로 전송할 수 있다. 예컨대, 제1 웹페이지가 제1 영역(130)을 포함하는 경우, 제1 영역(130)을 외부장치(200)로 전송할 수 있다.
제1 웹페이지는 링크 객체를 포함할 수 있으며, 제어부(101)는 제1 웹페이지에 포함된 링크 객체 중 적어도 일부를 외부장치(200)로 전송할 수 있다. 링크 객체는 링크 정보를 포함하는 텍스트일 수 있다.
외부장치(200)로 전송되는 제1 웹페이지의 일부분은 제1 웹페이지에 포함된 텍스트의 중요도 정보에 기초하여 결정되고, 전자장치(100)는 디스플레이부(103)에 표시된 제1 웹페이지 중 중요도가 높은 텍스트(130)를 외부장치(200)로 전송할 수 있다.
외부장치(200)는 전자장치(100)로부터 수신된 제1 웹페이지 중에서 중요도가 높은 텍스트(130a, 130b, 130c, 130d, 130e, 130f)를 외부장치(200)의 디스플레이부(103)에 표시할 수 있다. 중요도가 높은 텍스트(130a, 130b, 130c, 130d, 130e, 130f)는 링크 정보를 포함하는 링크 객체일 수 있다.
만일 외부장치(200)의 디스플레이부(103)의 해상도가 전자장치(100)의 디스플레이부(103)의 해상도와 같거나 높은 경우에는 전자장치(100)는 제1 웹페이지 전체를 외부장치(200)로 전송할 수 있다.
외부장치(200)가 오디오 출력부를 가지고 있는 경우 제어부(101)는 제1 웹페이지의 전체 또는 일부분을 음성으로 변환하고 변환된 제1 웹페이지의 음성정보를 외부장치(200)로 전송할 수 있다. 외부장치(200)는 전자장치(100)로부터 수신된 제1 웹페이지에 대한 음성정보를 오디오 출력부를 통해 출력할 수 있다. 또는 외부장치(200)가 진동출력부를 가지고 있는 경우 제어부(101)는 제1 웹페이지의 적어도 일부분을 진동을 발생하기 위한 정보로 변환할 수 있다. 외부장치(200)는 전자장치(100)로부터 수신된 제1 웹페이지에 대한 진동정보를 이용하여 진동을 발생시킬 수 있다.
전자장치(100)는 전자장치(100)의 위치정보를 수신하는 위치정보 수신부(113)를 더 포함하고, 위치정보 수신부(113)에서 출력된 신호에 기초하여 제1 웹페이지 중 적어도 일부를 제1 모달리티 정보로 변환할 수 있다. 제1 모달리티는 시각 모달리티와는 다른 모달리티 일 수 있다. 즉, 제1 모달리티는 음성 모달리티 일 수 있다. 또한 제1 모달리티는 촉각 모달리티 일 수 있다.
전자장치(100)는 GPS 신호 및 무선 AP를 이용하여 전자장치(100)의 위치를 결정할 수 있다. 제어부(101)는 전자장치(100)의 위치 정보에 기초하여 제1 웹페이지 중 적어도 일부를 음성으로 변환할 수 있다. 예를 들면 위치정보를 분석하여 사용자가 야외에서 활동중인 것으로 결정되면 제어부(101)는 디스플레이부(103)에 표시된 제1 웹페이지를 음성으로 변환할 수 있다. 사용자가 극장 내부에 있는 것으로 판단되면 제어부는 디스플레이부(103)에 표시된 제1 웹페이지를 음성으로 변환할 수 있다. 극장 내부에서는 주변이 어두우며, 센서부는 주변의 밝기를 감지할 수 있다. 제어부는 센서부에서 출력된 신호를 분석하여 주변 밝기를 결정하고 디스플레이부에 표시된 제1 웹페이지를 음성으로 변환하여 출력하고 디스플레이부를 오프 시킬 수 있다.
제어부는 위치정보 수신부로부터 신호를 수신하고 이에 기초하여 전자장치의 이동속도를 결정할 수 있다. 전자장치의 이동 속도가 설정된 값보다 빠른 경우 제어부는 사용자가 운전중인 것으로 판단하고 디스플레이부(103)에 표시된 제1 웹페이지를 음성으로 변환할 수 있다. 예컨대, 전자장치의 이동 속도가 시속 20Km보다 큰 경우 제어부는 사용자가 운전중인 것으로 결정하고 제1 웹페이지를 음성으로 변환할 수 있다.
전자장치(100)의 디스플레이부(103)에 표시된 제1 웹페이지가 보안 정보를 포함한 경우, 제어부(101)는 제1 웹페이지에 포함된 보안 정보에 기초하여 제1 웹페이지의 적어도 일부를 통신부(105)를 통해 외부장치(200)로 출력할 수 있다. 제1 웹페이지가 금융정보 및 개인정보 등과 같이 보안이 필요한 경우, 제1 웹페이지의 보안 레벨이 높을 수 있다. 제어부(101)는 디스플레이부(103)에 표시된 제1 웹페이지의 보안 레벨이 높은 경우에는 제1 웹페이지를 외부장치(200)로 보내지 않을 수 있다. 또한 제어부(101)는 디스플레이부(103)에 표시된 제1 웹페이지의 보안 레벨이 낮거나 또는 보안 정보가 없는 경우에는 제1 웹페이지의 적어도 일부를 외부장치(200)로 출력할 수 있다.
전자장치(100)의 디스플레이부(103)에 표시된 제1 웹페이지가 연속적으로 브라우징(browsing)이 필요한 경우 전자장치(100)는 제1 웹페이지의 속성 및 전자장치(100)의 상태에 기초하여 제1 웹페이지의 적어도 일부를 외부장치(200)로 전송할 수 있다. 예를 들면 제1 웹페이지가 지도 정보를 포함하고, 전자장치(100)가 이동중인 것으로 판단되면, 제어부(101)는 제1 웹페이지를 연결가능한 외부장치(200)로 전송할 수 있다. 또한 이 경우 제1 웹페이지는 외부장치(200)가 처리할 수 있는 정보로 변경될 수 있다.
전자장치(100)는 사용자가 설정한 제1 웹페이지 정보에 기초하여 제1 웹페이지의 적어도 일부를 외부장치로 전송할 수 있다. 제어부(101)는 사용자가 웹브라우징(web browsing) 도중에 외부장치로 웹브라우징 전환이 필요한 웹페이지를 사용자가 선택할 수 있도록 UI(User Interface) 화면을 디스플레이부에 표시하고 UI 화면을 통해 웹브라우징 전환이 필요한 웹페이지를 사용자가 설정하도록 할 수 있다.
제어부(101)는 사용자가 설정한 웹페이지 정보를 참조하고 사용자 설정 정보에 기초하여 제1 웹페이지의 일부를 외부장치(200)로 전송할 수 있다. 또는 제어부(101)는 사용자가 설정한 웹페이지 정보를 참조하고 사용자 설정 정보에 기초하여 제1 웹페이지의 일부를 음성으로 변환할 수 있다. 예를 들면 사용자가 지도 사이트(map site), 네비게이션 정보 제공 사이트, 증권 사이트 및 이메일 사이트를 선택하고, 웹브라우징 전환이 필요한 것으로 설정하는 경우, 제어부는 웹페이지 설정 정보에 기초하여 외부장치(200)로 제1 웹페이지의 일부를 전송할 수 있다. 또는 제1 웹페이지의 일부를 음성으로 변환할 수 있다.
제1 웹페이지가 지도를 포함하는 경우 제어부(101)는 웹페이지 설정 정보를 참조하여 제1 웹페이지가 웹브라우징 전환이 필요한 것으로 결정하고, 제1 웹페이지의 일부를 외부장치로 전송할 수 있다. 또는 제1 웹페이지의 일부를 음성으로 변환할 수 있다. 또는 제1 웹페이지의 일부는 외부장치로 전송하고, 제1 웹페이지의 또 다른 일부는 음성으로 변환할 수 있다.
제1 웹페이지가 증권 정보를 포함하는 경우 제어부(101)는 웹페이지 설정 정보를 참조하여 제1 웹페이지가 웹브라우징 전환이 필요한 것으로 결정하고, 제1 웹페이지의 일부를 외부장치로 전송할 수 있다. 또는 제1 웹페이지의 일부를 음성으로 변환할 수 있다. 또는 제1 웹페이지의 일부는 외부장치로 전송하고, 제1 웹페이지의 또 다른 일부는 음성으로 변환할 수 있다.
제1 웹페이지가 신문기사를 포함하는 경우에는 제어부(101)는 웹페이지 설정 정보를 참조하여 제1 웹페이지가 웹브라우징 전환이 필요 없는 것으로 결정하고, 제1 웹페이지를 외부장치로 전송하지 않을 수 있다. 또는 제1 웹페이지를 음성으로 변환하지 않을 수 있다.
외부장치가 복수 개 존재하는 경우, 제어부는 사용자 설정 정보에 기초하여 웹브라우징을 전환할 외부장치를 결정할 수 있다. 제어부는 디스플레이부에 웹브라우징을 전환할 외부장치의 리스트를 표시하고, 사용자가 선택한 외부장치 설정정보에 따라 대응하는 외부장치로 웹브라우징을 전환할 수 있다.
예를 들면 외부장치로 스마트워치 및 태블릿이 존재하고 사용자가 웹브라우징을 전환할 외부장치를 스마트워치로 설정한 경우, 제어부는 스마트워치로 웹브라우징을 전환할 수 있다.
또는 사용자가 웹페이지 ‘A’에 대해서는 스마트워치로 웹브라우징을 전환하는 것으로 설정하고, 웹페이지 ‘B’에 대해서는 태블릿으로 웹브라우징을 전환하는 것으로 설정하는 경우, 제어부는 센서부에서 출력된 신호에 기초하여 웹브라우징을 전환할 때, 웹페이지 ‘A’에 대해서는 스마트워치로 웹페이지를 전환하고 웹페이지‘B’의 경우에는 태블릿으로 웹브라우징을 전환할 수 있다.
제어부는 전자장치의 상태 정보 및 사용자 설정 정보에 기초하여 제1 웹페이지의 적어도 일부를 음성으로 변환할 수 있다. 또한 제어부는 전자장치의 상태 정보 및 사용자 설정 정보에 기초하여 제1 웹페이지의 적어도 일부를 스마트워치로 전송할 수 있다.
제1 웹페이지가 제1 영역 및 제2 영역을 포함하는 경우, 제어부는 센서부에서 출력된 신호에 기초하여 제1 영역 및 제2 영역중 적어도 하나를 음성으로 변환하고, 사용자 설정 정보에 기초하여 제1 영역을 스마트워치로 전송할 수 있다.
제어부는 전자장치의 상태(context)를 결정하고, 전자장치의 상태에 따라 웹브라우징을 전환할 수 있다. 전자장치의 상태는 센서부에서 출력된 신호를 분석하여 결정할 수 있다. 제어부는 센서부에서 출력된 신호에 기초하여 전자장치의 이동 여부, 전자장치 주변의 밝기, 이어폰 연결 여부 및 차량과의 연결 여부를 결정할 수 있다. 즉, 제어부는 전자장치의 상태에 기초하여 디스플레이부에 표시된 제1 웹페이지의 적어도 일부를 음성으로 변환할 수 있다.
예를 들면, 제어부는 센서부에 포함된 가속도 센서에서 출력된 신호를 수신하고, 상기 신호에 기초하여 전자장치의 이동 여부를 결정할 수 있다. 전자장치가 이동중인 것으로 결정되면 제어부는 디스플레이부에 표시된 제1 웹페이지를 음성으로 변환할 수 있다.
제어부는 센서부에 포함된 조도센서에서 출력된 신호를 수신하고, 상기 신호에 기초하여 전자장치 주변의 밝기를 결정할 수 있다. 주변의 밝기가 어두우면, 제어부는 전자장치가 커버로 덮여 있거나 또는 전자장치가 가방안에 있는 것으로 결정할 수 있다. 전자장치가 커버로 덮여 있거나 또는 전자장치가 가방안에 있는 것으로 결정된 경우 제어부는 디스플레이부에 표시된 제1 웹페이지를 음성으로 변환할 수 있다.
제어부는 전자장치에 이어폰이 연결된 경우 디스플레이부에 표시된 제1 웹페이지를 음성으로 변환할 수 있다.
전자장치(100)는 외부장치(200)로부터 외부장치(200)의 상태 정보를 수신하고, 제1 웹페이지에 포함된 텍스트를 통신부(105)를 통해 외부장치(200)로 전송할 수 있다. 텍스트는 링크 정보를 포함하는 링크 객체일 수 있다.
외부장치(200)는 전자장치(100)로부터 제1 웹페이지에 포함된 텍스트 중 적어도 일부를 수신하고 외부장치(200)에 표시할 수 있다. 외부장치(200)에 표시되는 텍스트는 링크 정보를 포함하는 링크 객체일 수 있다.
예를 들면 전자장치(100)의 디스플레이부(103)에 표시된 텍스트(130)가 링크 정보와 함께 통신부(105)를 통해 외부장치(200)로 전송된다. 외부장치(200)에는 링크 정보를 포함하는 텍스트(130a, 130b, 130c, 130d, 130e, 130f)가 표시된다. 사용자가 외부장치(200)에 표시된 텍스트(130a, 130b, 130c, 130d, 130e, 130f) 중 하나를 선택하면 외부장치(200)는 선택된 텍스트에 기초한 신호를 전자장치(100)로 전송할 수 있다. 전자장치(100)는 통신부(105)를 통해 외부장치(200)에 표시된 텍스트 중 하나를 선택하는 사용자 입력에 기초한 신호를 수신하고, 선택된 텍스트에 대응하는 제2 웹페이지를 전자장치(100)의 디스플레이부(103)에 표시하도록 디스플레이부(103)를 제어할 수 있다. 즉, 선택된 텍스트가 가지고 있는 링크 정보에 기초하여 제2 웹페이지를 전자장치(100)의 디스플레이부(103)에 표시하도록 디스플레이부(103)를 제어할 수 있다.
예를 들면, 외부장치(200)에 텍스트(130a, 130b, 130c, 130d, 130e, 130f)가 표시되고 사용자가 텍스트(130a, 130b, 130c, 130d, 130e, 130f)중 하나의 텍스트(130f)를 선택하면 외부장치(200)는 선택된 텍스트(130f)에 대응하는 신호를 전자장치(100)로 전송한다. 외부장치(200)에 표시된 텍스트(130a, 130b, 130c, 130d, 130e, 130f)는 링크 정보를 포함할 수 있다. 전자장치(100)는 선택된 텍스트(130f)에 대응하는 신호를 수신한다. 제어부(101)는 수신된 텍스트(130f)에 대응하는 제2 웹페이지를 디스플레이부(103)에 표시하도록 디스플레이부(103)를 제어할 수 있다.
도 5는 전자장치(100)의 디스플레이부(103)에 제2 웹페이지가 표시된 것을 도시한 도면이다. 도 5를 참조하면 디스플레이부(103)에 제2 웹페이지(121)가 표시되어 있다. 도 4의 디스플레이부(103)에 제1 웹페이지가 표시된 상태에서 전자장치(100)가 통신부(105)를 통해 외부장치(200)에 표시된 텍스트 중 하나의 텍스트를 선택하는 사용자 입력에 기초한 신호를 수신하면, 제어부(101)는 수신된 신호에 기초하여 선택된 텍스트에 대응하는 제2 웹페이지(121)를 상기 디스플레이부(103)에 표시하도록 디스플레이부(103)를 제어할 수 있다. 여기서 외부장치(200)에 표시되는 텍스트는 그래픽 오브젝트로 대체될 수 있다. 도 4의 디스플레이부(103)에 제1 웹페이지가 표시된 상태에서 전자장치(100)가 통신부(105)를 통해 외부장치(200)에 표시된 그래픽 오브젝트 중 하나를 선택하는 사용자 입력에 기초한 신호를 수신하면, 제어부(101)는 수신된 신호에 기초하여 선택된 그래픽 오브젝트에 대응하는 제2 웹페이지(121)를 상기 디스플레이부(103)에 표시하도록 디스플레이부(103)를 제어할 수 있다.
도 6은 전자장치 상태에 따라 제1 웹페이지를 제1 모달리티 정보로 변환하는 과정을 도시한 흐름도이다. 이하, 도 2, 도 4 및 도 6을 참조하여 전자장치 상태에 따라 제1 웹페이지를 제1 모달리티 정보로 변환하는 과정을 설명한다.
도 6을 참조하면 전자장치는 디스플레이부(103)에 제1 웹페이지를 표시한다.(단계 S601) 제1 웹페이지는 링크 객체 및 일반 객체를 포함할 수 있다. 링크 객체는 링크 정보를 포함하는 텍스트 및 그래픽 오브젝트 일 수 있다.
제어부(101)는 제1 웹페이지를 파싱(parsing)하여 링크 객체와 일반 객체로 분리한다. 링크 객체는 링크 정보를 포함하는 객체이다. 일반 객체는 링크 정보가 없는 객체이다. 링크 정보는 제2 웹페이지의 주소일 수 있다. 제어부(101)는 링크 객체를 우선순위화 할 수 있다. 각각의 링크 객체는 중요도 정보를 가지고 있으며, 제어부(101)는 중요도 정보에 기초하여 링크 객체를 우선순위화 하여 재분류 할 수 있다. 중요도 정보는 제1 웹페이지에 포함될 수 있다.
전자장치는 센서부(107)를 통해 전자장치(100)의 상태를 감지한다.(단계 S603) 센서부(107)는 전자장치(100)의 상태 및 전자장치(100) 주변의 상태를 감지할 수 있다. 센서부(107)는 전자장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함할 수 있다. 예를 들어, 센서부(107)는 사용자의 전자장치(100)에 대한 접근 여부를 검출하는 근접 센서, 전자장치(100) 주변의 빛의 양을 검출하는 조도센서, 전자장치(100)의 회전관성을 이용하여 방향을 검출하는 자이로 센서를 포함할 수 있다. 또한, 센서부(107)는 전자장치(100)의 3축(예를 들어, x축, y축, z축)에 가해지는 가속도를 검출하는 가속도 센서(도시되지 아니함), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 또는 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter)를 포함할 수 있다.
센서부(107)는 전자장치(100)의 운동 가속도와 중력 가속도를 각각 검출할 수 있다. 고정된 전자장치(100)의 경우, 센서부(107)는 중력 가속도만 검출할 수 있다. 예를 들어, 전자장치(100)의 전면이 위로 향하는 경우, 중력 가속도는 양(+)방향이고, 전자장치(100)의 후면이 위로 향하는 경우, 중력가속도는 음(-)의 방향일 수 있다. 또한, 센서부(107)는 사용자의 지문을 검출하는 지문 센서(도시되지 아니함), 주위 자외선을 검출하는 자외선 센서(도시되지 아니함), 또는 사용자의 심장 박동을 검출하는 심박 센서(도시되지 아니함)를 더 포함할 수 있다.
센서부(107)에 포함되는 센서는 전자장치(100)의 상태를 검출하고, 검출에 대응되는 전기적인 신호를 제어부(101)로 전송한다. 본 개시의 실시 예에서 제어부(101)는 센서부(107)에서 출력된 신호에 기초하여 전자장치(100)의 상태를 결정할 수 있다. 예를 들면, 제어부(101)는 조도센서의 출력을 이용하여 전자장치(100)의 디스플레이부(103)가 커버로 덮여있는지 여부를 결정할 수 있다. 제어부(101)는 조도센서의 출력을 이용하여 전자장치(100)가 사용자의 가방 안에 있는지를 결정할 수 있다. 제어부(101)는 가속도 센서의 출력을 이용하여 전자장치(100)가 이동 중인지를 결정할 수 있다.
전자장치는 센서부(107)에서 출력된 신호에 기초하여 상기 제1 웹페이지 중 적어도 일부를 제1 모달리티 정보로 변환한다.(단계 S605) 제1 모달리티는 음성 모달리티일 수 있다. 즉, 전자장치는 센서부(107)에서 출력된 신호에 기초하여 제1 웹페이지에 포함된 링크 객체 및 일반 객체를 음성으로 변환할 수 있다.
전자장치는 통신부(105)를 포함할 수 있다. 통신부(105)는 외부장치(200)와 통신을 수행할 수 있다. 통신부(105)는 외부장치(200)로부터 제1 신호를 수신할 수 있다. 제1 신호는 외부장치(200)의 상태 정보일 수 있다. 제어부(101)는 센서부(107)에서 출력된 신호에 기초하여 제1 웹페이지 중 적어도 일부를 음성으로 변환하고, 통신부를 통해 수신된 외부장치 상태 정보에 기초하여 제1 웹페이지 중 적어도 일부를 외부장치로 전송하도록 제어할 수 있다.
제어부(101)는 외부장치 상태 정보에 기초하여 제1 웹페이지를 외부장치가 처리할 수 있는 정보로 변환할 수 있다. 예를 들면 제어부(101)는 외부장치가 디스플레이부를 가지고 있지 않고 오디오 출력부만 가진 것으로 판단하는 경우에는 제1 웹페이지를 음성 정보로 변환하여 외부장치로 전송할 수 있다.
제어부(101)는 통신부(105)를 통해 수신된 외부장치(200) 상태 정보를 분석하여 외부장치가 스마트워치이며, 디스플레이부의 해상도가 전자장치 디스플레이부의 해상도보다 상대적으로 작은 것으로 결정할 수 있다. 예를 들면 제어부는 디스플레이부에 표시된 제1 웹페이지 중 링크 객체(120)는 음성 정보로 변환하고 링크 객체(130)는 외부장치로 전송할 수 있다.
또한 통신부(105)는 외부장치(200)로부터 제2 신호를 수신할 수 있다. 제2 신호는 외부장치(200)에서 사용자 입력이 발생했을 때 이에 대응하여 외부장치(200)가 출력하는 신호일 수 있다. 예를 들면 사용자가 외부장치(200)에 표시된 링크 객체를 터치하는 경우 발생될 수 있다. 링크 객체는 텍스트일 수 있다. 또한 링크 객체는 그래픽 오브젝트 일 수 있다. 링크 객체는 제1 웹페이지에 포함된 링크 객체 중 일부분 일 수 있다. 제1 웹페이지에 포함된 링크 객체 중 적어도 일부분이 외부장치(200)에 표시된 상태에서 사용자가 하나의 링크 객체를 선택하면 외부장치(200)는 사용자 선택에 따라 제2 신호를 전자장치(100)로 전송할 수 있다.
즉, 외부장치(200)는 사용자 입력을 수신하면 이에 대응하여 제2 신호를 전자장치(100)로 출력할 수 있다. 제2 신호는 외부장치(200)에서 제1 웹페이지에 포함된 링크 정보 중 하나를 선택하는 사용자 입력에 기초한 신호일 수 있다. 제어부(101)는 통신부를 통해 외부장치에 표시된 링크 객체 중 하나를 선택하는 사용자 입력에 기초한 제2 신호를 수신하고 제2 신호에 기초하여 선택된 링크 객체에 대응하는 제2 웹페이지를 디스플레이부에 표시하도록 디스플레이부를 제어할 수 있다.
전자장치는 위치정보를 수신하는 위치정보 수신부를 포함할 수 있다. 위치정보 수신부(113)는 GPS 수신부일 수 있다. GPS는 지구 궤도상에 있는 복수의 GPS 위성으로부터 주기적으로 신호(예를 들어, GPS 위성의 궤도 정보, 위성의 시간 정보 및 항법 메시지 등)를 수신한다. 실외의 경우, 전자장치(100)는 복수의 GPS위성으로부터 수신되는 신호를 이용하여 복수의 GPS 위성과 전자장치(100)의 위치를 산출하고, 송/수신 시간차를 이용하여 거리를 산출할 수 있다. 전자장치(100)는 삼각 측량을 통해 전자장치(100)의 위치, 시간 또는 이동 속도를 산출할 수 있다. 궤도 보정 또는 시간 보정을 위해 추가의 GPS 위성이 필요할 수 있다.
실내의 경우, 전자장치(100)는 무선 AP(도시되지 아니함)를 이용하여 전자장치(100)의 위치 또는 이동 속도를 검출할 수 있다. 실내에서 전자장치(100)의 위치 검출은 무선 AP의 ID를 이용한 셀 아이디(cell-ID) 방식, 무선 AP의 ID와 RSS(Received signal strength)를 이용한 강화 셀 아이디(enhanced cell-ID) 방식 또는 AP에서 전송된 신호의 휴대 장치(100)로 수신되는 각도를 이용한 AoA(Angle of Arrival) 방식을 이용할 수 있다. 또한, 전자장치(100)는 무선 비컨(beacon, 도시되지 아니함)을 이용하여 실내에 위치하는 전자장치(100)의 위치 또는 이동 속도를 검출할 수 있다. 상기의 방식뿐만 아니라 다양한 방식을 통해 전자장치(100)의 실내 위치를 검출할 수 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
본 개시의 실시예에서, 제어부(101)는 위치정보 수신부(113)를 이용한 실외 위치 또는 무선 AP를 이용한 실내 위치를 산출할 수 있다. 제어부(101)는 위치정보 수신부(113)에서 출력된 신호에 기초하여 디스플레이부(103)에 표시된 제1 웹페이지 중 적어도 일부를 음성으로 변환할 수 있다. 예를 들면 전자장치가 영화관에 있는 경우 제어부는 디스플레이부(103)에 표시된 제1 웹페이지를 음성으로 변환할 수 있다.
제1 웹페이지가 보안 정보를 포함하는 경우, 제어부는 제1 웹페이지에 포함된 보안 정보에 기초하여 제1 웹페이지의 적어도 일부를 통신부를 통해 외부장치로 전송할 수 있다. 예를 들면 제1 웹페이지가 금융 거래 싸이트인 경우, 제1 웹페이지는 보안 정보를 포함할 수 있으며, 제어부는 제1 웹페이지를 외부장치로 전송하지 않을 수 있다. 또는 제1 웹페이지가 사용자 정보를 포함하고 있는 경우 보안 정보에 기초하여 제1 웹페이지의 일부만을 외부장치로 전송할 수 있다. 이 때 외부장치로 전송되는 데이터는 제1 웹페이지의 내용 중 보안 정보가 없거나 보안 레벨이 낮은 데이터만 전송될 수 있다.
도 7은 전자장치 상태 정보에 기초하여 제1 웹페이지의 제1 영역을 외부장치로 전송하는 과정을 도시한 흐름도이다. 이하, 도 2, 도 3 및 도 7을 참조하여 전자장치 상태 정보에 기초하여 제1 웹페이지의 제1 영역을 외부장치로 전송하는 과정을 설명한다.
도 7을 참조하면 전자장치는 디스플레이부(103)에 제1 영역(130) 및 제2 영역(140)을 포함하는 제1 웹페이지를 표시한다.(단계 S701) 제1 영역(130)은 제2 영역(140)의 상위 메뉴일 수 있다. 웹페이지는 링크 객체 및 일반 객체를 포함할 수 있다. 링크 객체는 링크 정보를 포함하는 텍스트 및 그래픽 오브젝트 일 수 있다.
전자장치는 센서부(107)를 통해 전자장치(100)의 상태를 감지한다.(단계 S703) 센서부(107)는 전자장치(100) 상태 및 전자장치(100) 주변의 상태를 감지할 수 있다.
전자장치는 외부장치 상태 정보를 수신할 수 있다.(단계 S705) 전자장치는 통신부(105)를 포함할 수 있다. 통신부(105)는 외부장치(200)와 통신을 수행할 수 있다.
제어부(101)는 외부장치 상태 정보에 기초하여 제1 영역(130)을 외부장치로 전송할 수 있다.(단계 S707) 외부장치 상태 정보는 외부장치의 디스플레이부의 해상도 및 크기에 대한 정보일 수 있다. 또는 외부장치의 기능에 대한 정보일 수 있다.
외부장치(200)의 상태 정보는 외부장치(200)의 디스플레이 크기, 외부장치(200)가 가지고 있는 기능 및 외부장치(200)가 처리할 수 있는 데이터의 종류에 대한 정보가 포함될 수 있다. 외부장치(200)는 전자장치(100)와 비교하여 상대적으로 작은 디스플레이부(203)를 가질 수 있다. 따라서 외부장치(200)는 전자장치(200)의 디스플레이부(103)에 표시되어 있는 제1 웹페이지의 일부분만을 표시할 수 있다.
예를 들면 외부장치(200)의 상태 정보는 외부장치(200)가 디스플레이부를 가지고 있는지, 외부장치가 음향을 출력하기 위한 스피커를 가지고 있는지, 외부장치가 진동 발생부를 가지고 있는지, 외부장치가 생체정보를 수집하는 센서를 가지고 있는지에 대한 정보를 포함할 수 있다.
전자장치는 전자장치의 상태에 기초하여 제1 영역 및 제2 영역 중 적어도 하나를 음성으로 변환할 수 있다.(단계 S708) 제어부(101)는 센서부에서 출력된 신호에 기초하여 전자장치(100)의 상태를 결정할 수 있다.
센서부(107)는 전자장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함할 수 있다. 예를 들어, 센서부(107)는 사용자의 전자장치(100)에 대한 접근 여부를 검출하는 근접 센서, 전자장치(100) 주변의 빛의 양을 검출하는 조도센서, 전자장치(100)의 회전관성을 이용하여 방향을 검출하는 자이로 센서를 포함할 수 있다. 또한, 센서부(107)는 전자장치(100)의 3축(예를 들어, x축, y축, z축)에 가해지는 가속도를 검출하는 가속도 센서(도시되지 아니함), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 또는 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter)를 포함할 수 있다.
센서부(107)에 포함되는 센서는 전자장치(100)의 상태를 검출하고, 검출에 대응되는 전기적인 신호를 제어부(101)로 전송한다. 본 개시의 실시 예에서 제어부(101)는 센서부(107)에서 출력된 신호에 기초하여 전자장치(100)의 상태를 결정할 수 있다. 예를 들면, 제어부(101)는 조도센서의 출력을 이용하여 전자장치(100)의 디스플레이부(103)가 커버로 덮여있는지 여부를 결정할 수 있다. 제어부(101)는 조도센서의 출력을 이용하여 전자장치(100)가 사용자의 가방 안에 있는지를 결정할 수 있다. 제어부(101)는 가속도 센서의 출력을 이용하여 전자장치(100)가 이동 중인지를 결정할 수 있다.
제어부(101)는 디스플레이부에 제1 웹페이지가 표시된 상태에서 디스플레이부(103)가 커버로 덮이거나 또는 전자장치가 사용자의 가방안에 있는 것으로 판단하는 경우, 제2 영역(140)을 음성으로 변환할 수 있다. 즉, 제2 영역(140)에 포함된 텍스트를 음성 정보로 변환하고 오디오 출력부를 통해 음성으로 출력할 수 있다. 이 때 제어부는 외부장치 상태 정보에 기초하여 제1 영역(130)을 외부장치로 전송할 수 있다. 즉, 제1 영역(130)에 포함된 텍스트를 외부장치로 전송할 수 있다.
또는 제어부(101)는 디스플레이부에 제1 웹페이지가 표시된 상태에서 디스플레이부(103)가 커버로 덮이거나 또는 전자장치가 사용자의 가방안에 있는 것으로 판단하는 경우, 제1 영역(130) 및 제2 영역(140)을 음성으로 변환할 수 있다. 즉, 제1 영역(130) 및 제2 영역(140)에 포함된 텍스트를 음성 정보로 변환하고 오디오 출력부를 통해 음성으로 출력할 수 있다. 이 때 제어부는 외부장치 상태 정보에 기초하여 제1 영역(130)을 외부장치로 전송할 수 있다.
도 8은 전자장치 상태 정보에 기초하여 제1 웹페이지의 제1 영역을 외부장치로 전송하는 과정을 도시한 흐름도이다. 이하, 도 2, 도 3 및 도 8을 참조하여 전자장치 상태 정보에 기초하여 제1 웹페이지의 제1 영역을 외부장치로 전송하는 과정을 설명한다.
도 8을 참조하면 전자장치는 디스플레이부(103)에 제1 영역(130) 및 제2 영역(140)을 포함하는 제1 웹페이지를 표시한다.(단계 S801) 제1 영역(130)은 제2 영역(140)의 상위 메뉴일 수 있다. 웹페이지는 링크 객체 및 일반 객체를 포함할 수 있다. 링크 객체는 링크 정보를 포함하는 텍스트 및 그래픽 오브젝트 일 수 있다.
전자장치는 센서부(107)를 통해 전자장치(100)의 상태를 감지한다.(단계 S803) 센서부(107)는 전자장치(100) 상태 및 전자장치(100) 주변의 상태를 감지할 수 있다.
전자장치는 전자장치의 상태에 기초하여 제1 영역 및 제2 영역 중 적어도 하나를 음성으로 변환할 수 있다.(단계 S708) 제어부(101)는 센서부(107)에서 출력된 신호에 기초하여 전자장치(100)의 상태를 결정할 수 있다.
센서부(107)는 전자장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함할 수 있다. 예를 들어, 센서부(107)는 사용자의 전자장치(100)에 대한 접근 여부를 검출하는 근접 센서, 전자장치(100) 주변의 빛의 양을 검출하는 조도센서, 전자장치(100)의 회전관성을 이용하여 방향을 검출하는 자이로 센서를 포함할 수 있다. 또한, 센서부(107)는 전자장치(100)의 3축(예를 들어, x축, y축, z축)에 가해지는 가속도를 검출하는 가속도 센서(도시되지 아니함), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 또는 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter)를 포함할 수 있다.
센서부(107)에 포함되는 센서는 전자장치(100)의 상태를 검출하고, 검출에 대응되는 전기적인 신호를 제어부(101)로 전송한다. 본 개시의 실시 예에서 제어부(101)는 센서부(107)에서 출력된 신호에 기초하여 전자장치(100)의 상태를 결정할 수 있다. 예를 들면, 제어부(101)는 조도센서의 출력을 이용하여 전자장치(100)의 디스플레이부(103)가 커버로 덮여있는지 여부를 결정할 수 있다. 제어부(101)는 조도센서의 출력을 이용하여 전자장치(100)가 사용자의 가방 안에 있는지를 결정할 수 있다. 제어부(101)는 가속도 센서의 출력을 이용하여 전자장치(100)가 이동 중인지를 결정할 수 있다.
제어부(101)는 디스플레이부에 제1 웹페이지가 표시된 상태에서 디스플레이부(103)가 커버로 덮이거나 또는 전자장치가 사용자의 가방안에 있는 것으로 판단하는 경우, 제2 영역(140)을 음성으로 변환할 수 있다. 즉, 제2 영역(140)에 포함된 텍스트를 음성 정보로 변환하고 오디오 출력부를 통해 음성으로 출력할 수 있다.
또는 제어부(101)는 디스플레이부에 제1 웹페이지가 표시된 상태에서 디스플레이부(103)가 커버로 덮이거나 또는 전자장치가 사용자의 가방안에 있는 것으로 판단하는 경우, 제1 영역(130) 및 제2 영역(140)을 음성으로 변환할 수 있다. 즉, 제1 영역(130) 및 제2 영역(140)에 포함된 텍스트를 음성 정보로 변환하고 오디오 출력부를 통해 음성으로 출력할 수 있다
본 개시의 실시 예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.
본 개시의 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
본 개시의 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다.
본 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다. 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.
100: 전자장치
101: 제어부
103: 디스플레이부
105: 통신부
107: 센서부

Claims (20)

  1. 전자 장치에 있어서,
    디스플레이부;
    스피커;
    센서부;
    통신부; 및
    제어부를 포함하고, 상기 제어부는,
    제1영역 및 제2영역을 포함하는 제1웹 페이지를 상기 디스플레이부에 표시하고-상기 제1영역은 각각이 복수의 웹 페이지들에 각각 링크된 복수의 객체들을 포함함-,
    상기 센서부를 통해 상기 전자 장치의 상태를 판단하고,
    상기 전자 장치의 상태에 따라 사용자가 상기 제1웹 페이지를 응시하지 않는 것으로 판단되면, 상기 제1영역 및 상기 제2영역 중 적어도 하나에 포함된 적어도 하나의 텍스트에 대응하는 적어도 하나의 음성을 상기 스피커를 통해 출력하고,
    외부 장치로부터 수신된 상기 외부 장치의 성능에 기초하여, 상기 제1웹 페이지의 상기 제1영역 및 상기 제2영역 중 상기 적어도 하나에 포함된 상기 적어도 하나의 텍스트를 음성 데이터로 변환할지 여부를 판단하고,
    상기 전자 장치의 상태에 따라 상기 사용자가 상기 제1웹 페이지를 응시하지 않는다고 판단되면, 상기 외부 장치의 능력에 기초하여, 상기 제1영역에 포함된 정보를 출력하기 위한 제 1 정보를 상기 통신부를 통해 상기 외부 장치에 전송하도록 설정된 전자 장치.
  2. 제1 항에 있어서,
    상기 제어부는,
    상기 통신부를 통해 상기 외부장치에 표시된 링크 객체 중 하나를 선택하는 사용자 입력에 기초한 신호를 수신하고, 상기 신호에 기초하여 상기 선택된 링크 객체에 대응하는 제2 웹페이지를 상기 디스플레이부에 표시하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 전자장치.
  3. 제1 항에 있어서,
    상기 제어부는,
    상기 외부장치의 상기 성능에 기초하여 상기 제1 영역을 상기 외부장치가 처리할 수 있는 정보로 변환하는 것을 특징으로 하는 전자장치.
  4. 제1 항에 있어서,
    상기 전자장치는,
    상기 전자장치의 위치 정보를 수신하는 위치정보 수신부를 더 포함하고,
    상기 위치정보 수신부에서 출력된 상기 위치 정보에 기초하여 상기 제1 영역에 포함된 상기 적어도 하나의 텍스트를 상기 적어도 하나의 음성으로 변환하는 것을 특징으로 하는 전자장치.
  5. 제1 항에 있어서,
    상기 제어부는,
    상기 제1 웹페이지에 포함된 보안 정보에 기초하여 상기 제1 정보를 상기 통신부를 통해 상기 외부장치로 전송하는 것을 특징으로 하는 전자장치.
  6. 삭제
  7. 제1 항에 있어서,
    상기 센서부는 광센서, 가속도 센서 및 중력 센서 중 적어도 하나를 포함하는 것을 특징으로 하는 전자장치.
  8. 제1 항에 있어서,
    상기 제어부는 상기 복수의 객체들 각각의 우선순위에 기초하여, 상기 복수의 객체들 중 적어도 하나의 객체를 상기 외부 장치에 표시하기 위해, 상기 제1정보를 상기 외부장치로 전송하도록 제어하는 것을 특징으로 하는 전자장치.
  9. 삭제
  10. 삭제
  11. 전자 장치의 동작 방법에 있어서,
    제1영역 및 제2영역을 포함하는 제1웹 페이지를 상기 전자 장치의 디스플레이부에 표시하는 동작-상기 제1영역은 각각이 복수의 웹 페이지들에 각각 링크된 복수의 객체들을 포함함-;
    상기 전자 장치의 센서부를 통해 상기 전자 장치의 상태를 판단하는 동작;
    상기 전자 장치의 상태에 따라 사용자가 상기 제1웹 페이지를 응시하지 않는 것으로 판단되면, 상기 제1영역 및 상기 제2영역 중 적어도 하나에 포함된 적어도 하나의 텍스트에 대응하는 적어도 하나의 음성을 상기 전자 장치의 스피커를 통해 출력하는 동작;
    외부 장치로부터 수신된 상기 외부 장치의 성능에 기초하여, 상기 제1웹 페이지의 상기 제1영역 및 상기 제2영역 중 상기 적어도 하나에 포함된 상기 적어도 하나의 텍스트를 음성 데이터로 변환할지 여부를 판단하는 동작; 및
    상기 전자 장치의 상태에 따라 상기 사용자가 상기 제1웹 페이지를 응시하지 않는다고 판단되면, 상기 외부 장치의 능력에 기초하여, 상기 제1영역에 포함된 정보를 출력하기 위한 제 1 정보를 상기 전자 장치의 통신부를 통해 상기 외부 장치에 전송하는 동작을 포함하는 전자 장치의 동작 방법.
  12. 제11 항에 있어서,
    상기 통신부를 통해 상기 외부장치에 표시된 링크 객체 중 하나를 선택하는 사용자 입력에 기초한 신호를 수신하는 단계; 및
    상기 신호에 기초하여 상기 선택된 링크 객체에 대응하는 제2 웹페이지를 상기 디스플레이부에 표시하는 단계;를 더 포함하는 전자장치의 동작 방법.
  13. 제11 항에 있어서,
    상기 외부장치 상기 성능에 기초하여 상기 제1 영역을 상기 외부장치가 처리할 수 있는 정보로 변환하는 것을 특징으로 하는 전자장치의 동작 방법.
  14. 제12 항에 있어서,
    상기 전자장치의 위치 정보를 수신하는 단계; 및
    상기 위치 정보에 기초하여 상기 제1 영역에 포함된 상기 적어도 하나의 텍스트를 상기 적어도 하나의 음성으로 변환하는 단계;를 더 포함하는 것을 특징으로 하는 전자장치의 동작 방법.
  15. 제11 항에 있어서,
    상기 제1 웹페이지에 포함된 보안 정보에 기초하여 상기 제1정보를 상기 통신부를 통해 상기 외부장치로 전송하는 것을 특징으로 하는 전자장치의 동작 방법.
  16. 삭제
  17. 제11 항에 있어서,
    상기 센서부는 광센서, 가속도 센서 및 중력 센서 중 적어도 하나를 포함하는 것을 특징으로 하는 전자장치의 동작 방법.
  18. 제11 항에 있어서,
    상기 복수의 객체들 각각의 우선순위에 기초하여, 상기 복수의 객체들 중 적어도 하나의 객체를 상기 외부 장치에 표시하기 위해, 상기 제1정보를 상기 외부장치로 전송하는 단계;를 더 포함하는 전자장치의 동작 방법.
  19. 삭제
  20. 삭제
KR1020150002646A 2015-01-08 2015-01-08 전자장치 및 전자장치의 웹 재현 방법 KR102232583B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020150002646A KR102232583B1 (ko) 2015-01-08 2015-01-08 전자장치 및 전자장치의 웹 재현 방법
US14/983,683 US10170099B2 (en) 2015-01-08 2015-12-30 Electronic device and method for representing web content for the electronic device
PCT/KR2016/000203 WO2016111588A1 (en) 2015-01-08 2016-01-08 Electronic device and method for representing web content for the electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150002646A KR102232583B1 (ko) 2015-01-08 2015-01-08 전자장치 및 전자장치의 웹 재현 방법

Publications (2)

Publication Number Publication Date
KR20160085535A KR20160085535A (ko) 2016-07-18
KR102232583B1 true KR102232583B1 (ko) 2021-03-26

Family

ID=56356200

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150002646A KR102232583B1 (ko) 2015-01-08 2015-01-08 전자장치 및 전자장치의 웹 재현 방법

Country Status (3)

Country Link
US (1) US10170099B2 (ko)
KR (1) KR102232583B1 (ko)
WO (1) WO2016111588A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3591648B1 (en) * 2015-05-19 2022-07-06 Sony Group Corporation Information processing apparatus, information processing method, and program
US11173153B2 (en) 2015-09-08 2021-11-16 The Children's Hospital Of Philadelphia Methods of diagnosing and treating anxiety disorder
CN106547511B (zh) * 2015-09-16 2019-12-10 广州市动景计算机科技有限公司 一种语音播读网页信息的方法、浏览器客户端及服务器
KR20170100309A (ko) * 2016-02-25 2017-09-04 삼성전자주식회사 음성 인식 제어를 제공하는 전자 장치 및 그 동작 방법
US10540015B2 (en) * 2018-03-26 2020-01-21 Chian Chiu Li Presenting location related information and implementing a task based on gaze and voice detection

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110119572A1 (en) 2009-11-17 2011-05-19 Lg Electronics Inc. Mobile terminal
US20120242473A1 (en) 2011-03-25 2012-09-27 Choi Sungha Image processing for image dislay apparatus mounted to vehicle
KR101217521B1 (ko) * 2011-07-05 2013-01-02 가온미디어 주식회사 차량용 avn을 위한 텍스트/음성 변환 제공 방법
US20140028921A1 (en) 2012-07-25 2014-01-30 Samsung Electronics Co., Ltd. Method and mobile terminal for displaying information, method and display device for providing information, and method and mobile terminal for generating control signal

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6282511B1 (en) 1996-12-04 2001-08-28 At&T Voiced interface with hyperlinked information
KR19990031015A (ko) 1997-10-08 1999-05-06 김덕중 음성 합성을 이용한 오디오 웹 브라우져 장치
KR100284582B1 (ko) 1998-11-20 2001-04-02 정선종 음성 브라우저의 하이퍼링크 정보 전달방법
JP3714159B2 (ja) 2000-11-30 2005-11-09 日本電気株式会社 ブラウザ搭載装置
US7963652B2 (en) * 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
KR20110127853A (ko) * 2010-05-20 2011-11-28 엘지전자 주식회사 이동 단말기 및 그 제어 방법
EP2938969A4 (en) * 2012-12-27 2016-10-12 Harman Int Ind ON-BOARD NAVIGATION
US9807495B2 (en) 2013-02-25 2017-10-31 Microsoft Technology Licensing, Llc Wearable audio accessories for computing devices
US9886710B2 (en) * 2014-03-25 2018-02-06 Ebay Inc. Data mesh visualization

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110119572A1 (en) 2009-11-17 2011-05-19 Lg Electronics Inc. Mobile terminal
US20120242473A1 (en) 2011-03-25 2012-09-27 Choi Sungha Image processing for image dislay apparatus mounted to vehicle
KR101217521B1 (ko) * 2011-07-05 2013-01-02 가온미디어 주식회사 차량용 avn을 위한 텍스트/음성 변환 제공 방법
US20140028921A1 (en) 2012-07-25 2014-01-30 Samsung Electronics Co., Ltd. Method and mobile terminal for displaying information, method and display device for providing information, and method and mobile terminal for generating control signal

Also Published As

Publication number Publication date
KR20160085535A (ko) 2016-07-18
WO2016111588A1 (en) 2016-07-14
US20160203814A1 (en) 2016-07-14
US10170099B2 (en) 2019-01-01

Similar Documents

Publication Publication Date Title
KR102475223B1 (ko) 사용자 디바이스에서 상황 인식 서비스 제공 방법 및 장치
KR102104194B1 (ko) 자동화된 상태 리포트를 제공하는 디지털 어시스턴트
JP5918144B2 (ja) 携帯用装置のユーザーインターフェース提供方法及び装置
CN107533360B (zh) 一种显示、处理的方法及相关装置
KR102232583B1 (ko) 전자장치 및 전자장치의 웹 재현 방법
KR102056177B1 (ko) 음성 대화 서비스 제공 방법 및 이동 단말
US11429246B2 (en) Device, method, and graphical user interface for manipulating 3D objects on a 2D screen
EP2807534B1 (en) Methods and devices to determine a preferred electronic device
US20130167013A1 (en) Method of presenting digital data on an electronic device operating under different environmental conditions
KR20150027163A (ko) 개선된 가상 디스플레이 기능을 가진 헤드-착용 컴퓨터
US20190311401A1 (en) Wearable device and method for providing widget thereof
US12003659B2 (en) Interfaces and devices for dynamically-available media playback
US20180283873A1 (en) Calibration method based on dead reckoning technology and portable electronic device
US11625255B2 (en) Contextual navigation menu
JP2018507491A (ja) アプリケーションに関連付けられた新規メッセージを処理するための方法及び装置
JP2018032440A (ja) 制御可能なヘッドセットコンピュータディスプレイ
WO2021202386A1 (en) Interactive messging stickers
US11243679B2 (en) Remote data input framework
AU2017100557B4 (en) Digital assistant providing automated status report
US11074034B2 (en) Information processing apparatus, information processing method, and program
US11393164B2 (en) Device, method, and graphical user interface for generating CGR objects

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant