KR20140139377A - 환경정보를 이용한 화면 표시 제어 장치 및 방법 - Google Patents

환경정보를 이용한 화면 표시 제어 장치 및 방법 Download PDF

Info

Publication number
KR20140139377A
KR20140139377A KR1020130059966A KR20130059966A KR20140139377A KR 20140139377 A KR20140139377 A KR 20140139377A KR 1020130059966 A KR1020130059966 A KR 1020130059966A KR 20130059966 A KR20130059966 A KR 20130059966A KR 20140139377 A KR20140139377 A KR 20140139377A
Authority
KR
South Korea
Prior art keywords
layer
displayed
graphic
touch screen
electronic device
Prior art date
Application number
KR1020130059966A
Other languages
English (en)
Inventor
서준규
이용연
윤여준
최영준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130059966A priority Critical patent/KR20140139377A/ko
Priority to EP20140159058 priority patent/EP2809055A3/en
Priority to PCT/KR2014/004275 priority patent/WO2014193101A1/en
Priority to US14/284,635 priority patent/US20140351728A1/en
Publication of KR20140139377A publication Critical patent/KR20140139377A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Abstract

터치스크린에 배경 이미지가 표시되고, 배경 이미지와 중첩하여 반투명 레이어가 표시된다. 사용자가 반투명 레이어를 터치 및 드래그하면, 터치 및 드래그가 발생된 영역이 투명하게 변경된다. 반투명 레이어는 온도에 따라 투명도가 변경될 수 있다.

Description

환경정보를 이용한 화면 표시 제어 장치 및 방법{METHOD AND APPARATUS FOR CONTROLLING SCREEN DISPLAY USING ENVIRONMENTAL INFORMATION}
아래의 실시 예들은 터치스크린을 포함한 전자장치에서 화면 표시를 제어하기 위한 장치 및 방법에 관한 것으로, 보다 상세하게는 터치스크린을 구비한 휴대용 단말 장치에서 날씨정보, 계절 정보, 고도 정보 및 방향 정보 등과 같은 환경정보를 이용하여, 터치스크린에 표시되는 그래픽 이미지, 사용자 인터페이스 및 그래픽 객체의 표시를 제어하기 위한 장치 및 방법에 관한 것이다.
터치스크린은 그래픽과 텍스트를 표시하고 사용자가 장치와 상호작용하는 사용자 인터페이스를 제공하도록 여러 전자장치에 사용되고 있다. 터치스크린은 터치스크린상의 접촉을 검출하고 반응한다. 터치스크린은 하나 이상의 소프트 키, 메뉴와 터치스크린 상의 기타 사용자 인터페이스를 표시할 수 있다. 사용자는 상호 작용하고자 하는 사용자 인터페이스 대상에 대응되는 위치에서 터치스크린을 접촉하여 장치와 상호 작용 할 수 있다.
터치스크린은 직관적인 사용자 인터페이스를 제공할 수 있기 때문에, 스마트폰과 같은 휴대용 전자장치에서 디스플레이 및 사용자 입력 장치로서 널리 사용되고 있다.
스마트폰은 터치스크린을 기본적인 입출력 장치로 사용하고 있으며, 온도 센서, 습도 센서, 광 센서, 고도 센서, 지자기 센서등 외부 환경을 센싱하기 위한 다양한 센서를 포함하고 있다. 스마트폰은 외부로부터 수신한 정보와 , 터치스크린의 직관적인 인터페이스 및 다양한 센서들을 조합하여 사용자에게 자연스럽고 감성적인 경험을 제공할 수 있다.
예시적 실시예에 따르면, 전자장치에서 사용자 입력을 감지하는 터치스크린 및 환경정보에 기초하여 복수의 그래픽 이미지 중 어느 하나를 선택하여 제 1 레이어(210)에 제공하고, 터치스크린에 제 1 레이어(210)가 표시되도록 하고, 제 1 레이어(210) 뒤에 사용자 인터페이스가 제공되는 제 2 레이어(220)가 표시되도록 하고, 제 2 레이어(220) 뒤에 상기 사용자 인터페이스에 대응하는 그래픽 객체를 제공하는 제 3 레이어(230)가 표시되도록 하고, 제 2 레이어(220)에 제공된 사용자 인터페이스를 터치하는 상기 사용자 입력에 기초하여 상기 제 1 레이어(210)에 제공되는 상기 그래픽 이미지가 시각적으로 변형되도록 제어하는 제어부(110)를 포함하는 장치가 제공된다.
상기 제어부(110)는, 시간에 따라 상기 제 3 레이어(230)에 제공되는 상기 그래픽 객체가 시각적으로 변형되어 표시되도록 제어 할 수 있다. 상기 제어부(110)는, 상기 환경정보에 기초하여 복수의 그래픽 객체 중 어느 하나를 선택하고, 상기 선택된 그래픽 객체를 상기 제 3 레이어(230)에 제공할 수 있다.
상기 장치는 센서부를 포함하고, 상기 제어부(110)는 상기 센서부에서 출력된 신호에 기초하여 상기 그래픽 객체를 시각적으로 변형하여 상기 제 3 레이어(230)에 제공할 수 있다. 또한 상기 제어부(110)는, 상기 제 3 레이어(230)에 제공되는 그래픽 객체가 상기 제 2 레이어(220)에 제공되는 사용자 인터페이스의 주변에 표시되도록 제어할 수 있다. 상기 제어부(110)는 상기 사용자 인터페이스에 사용자 입력이 발생하는 빈도에 기초하여 상기 그래픽 객체가 시각적으로 변형되어 표시되도록 제어할 수 있다. 상기 제어부(110)는 상기 전자장치의 위치 정보에 대응하여 상기 그래픽 객체가 시각적으로 변형되어 표시되도록 제어할 수 있다.
예시적 실시예에 따르면, 전자장치에서, 드래그 동작을 검출하는 터치스크린 및 환경정보에 기초하여 복수의 그래픽 이미지 중 어느 하나를 선택하고, 상기 터치스크린에 리스트가 표시되도록 하고, 상기 리스트가 표시된 상태에서 드래그 동작을 검출하고, 상기 드래그 동작에 따라 상기 리스트가 스크롤 되도록 하고, 상기 리스트가 스크롤 되는 동안, 상기 선택된 그래픽 이미지가 상기 리스트에 중첩하여 표시되도록 제어하는 제어부(110)를 포함하는 장치가 제공된다.
상기 제어부(110)는, 상기 리스트의 첫 부분이 표시된 상태에서 드래그 동작이 검출되면 상기 드래그 동작에 대응하여 상기 선택된 그래픽 이미지가 상기 리스트에 중첩하여 표시되도록 제어할 수 있다. 상기 제어부(110)는, 상기 드래그 동작의 이동 거리에 대응하여 상기 그래픽 이미지의 크기를 변경하여 표시되도록 제어할 수 있다.
예시적 실시예에 따르면, 터치스크린을 포함하는 전자장치의 화면 표시 방법은, 환경정보에 기초하여 복수의 그래픽 이미지 중 어느 하나를 선택하여 제 1 레이어(210)에 제공하는 단계, 상기 터치스크린에 상기 제 1 레이어(210)를 표시하는 단계, 상기 제 1 레이어(210) 아래에 그래픽 유저 인터페이스(GUI) 엘리먼트가 제공되는 제 2 레이어(220)를 표시하는 단계, 상기 제 2 레이어(220) 아래에 상기 사용자 인터페이스에 대응하는 그래픽 객체를 제공하는 제 3 레이어(230)를 표시하는 단계 및 상기 제 2 레이어(220)에 제공된 사용자 인터페이스를 터치하는 사용자 입력에 기초하여, 상기 제 1 레이어(210)에 제공되는 상기 그래픽 이미지를 시각적으로 변형하여 표시하는 단계를 포함할 수 있다.
상기 방법은 시간에 따라 상기 제 3 레이어(230)에 제공되는 상기 그래픽 객체를 시각적으로 변형하여 표시하는 단계를 더 포함할 수 있다.
상기 방법은 상기 환경정보에 기초하여 복수의 그래픽 객체 중 어느 하나를 선택하고, 상기 선택된 그래픽 객체를 상기 제 3 레이어(230)에 제공하는 단계를 더 포함할 수 있다.
상기 방법은, 상기 장치에 포함된 센서부에서 출력된 신호에 기초하여 상기 그래픽 객체를 시각적으로 변형하여 상기 제 3 레이어(230)에 제공하는 단계를 더 포함할 수 있다.
상기 방법은, 상기 제 3 레이어(230)에 제공되는 그래픽 객체를 상기 제 2 레이어(220)에 제공되는 사용자 인터페이스의 주변에 표시하는 단계를 더 포함할 수 있다.
상기 방법은, 상기 사용자 인터페이스에 사용자 입력이 발생하는 빈도에 기초하여 상기 그래팩 객체를 시각적으로 변형하여 표시하는 단계를 더 포함할 수 있다.
상기 방법은 상기 전자장치의 위치 정보에 대응하여 상기 그래픽 객체를 시각적으로 변형하여 상기 터치스크린에 표시하는 단계를 더 포함할 수 있다.
예시적 실시예에 따르면, 터치스크린을 포함하는 전자장치의 화면 표시 방법은, 환경정보에 기초하여 복수의 그래픽 이미지 중 어느 하나를 선택하는 단계, 상기 터치스크린에 리스트를 표시하는 단계, 상기 리스트가 표시된 상태에서 드래그 동작을 검출하는 단계, 상기 드래그 동작에 응답하여 상기 리스트를 스크롤하는 단계 및 상기 리스트가 스크롤 되는 동안, 상기 선택된 그래픽 이미지를 상기 리스트에 중첩하여 표시하는 단계를 포함할 수 있다.
상기 방법은 상기 리스트의 첫 부분이 표시된 상태에서, 드래그 동작을 검출하는 단계 및 상기 드래그 동작에 응답하여 상기 선택된 그래픽 이미지를 상기 리스트에 중첩하여 표시하는 단계를 더 포함 할 수 있다. 또한 상기 방법은 상기 드래그 동작의 이동 거리에 대응하여 상기 그래픽 이미지의 크기를 변경하여 표시하는 단계를 더 포함할 수 있다.
본 발명의 다양한 실시 예들에 따르면, 사용자 입력을 감지하는 터치스크린에, 환경정보에 기초하여 복수의 그래픽 이미지 중에서 선택된 그래픽 이미지를 표시하고, 사용자 입력에 대응하여 그래픽 이미지를 시각적으로 변형하여 표시함으로써, 사용자에게 지속적으로 새로운 경험을 줄 수 있다.
도 1은 본 발명의 일 실시 예에 따른 전자장치의 구성을 나타내는 블록도,
도 2는 본 발명의 일 실시 예에 따른 전자장치의 터치스크린에 표시되는 레이어를 도시한 도면,
도 3은 전자장치의 터치스크린에서 환경정보에 기초하여 그래픽 이미지, 사용자 인터페이스 및 그래픽 객체를 표시하는 과정의 일 예를 설명하는 흐름도,
도 4 는 전자장치의 터치스크린에서 시간에 따라 제 3 레이어(230)에 제공되는 그래픽 객체가 시각적으로 변형되어 표시되는 과정의 일 예를 도시한 도면,
도 5 는 전자장치의 터치스크린에서 환경정보에 기초하여 제 3 레이어(230)에 그래픽 객체가 표시되는 것을 도시한 도면,
도 6 은 전자장치의 터치스크린에서 사용자 입력에 기초하여 제 1 레이어(210)에 표시되는 그래픽 이미지가 시각적으로 변형되어 표시되는 것을 도시한 도면,
도 7 은 전자장치의 터치스크린에서 사용자 인터페이스에 사용자 입력이 발생하는 빈도에 기초하여 그래픽 객체가 시각적으로 변형되어 표시되는 것을 도시한 도면,
도 8 은 전자장치의 터치스크린에서 사용자의 비의도적인 입력이 발생했을 때 그래픽 이미지가 표시되는 것을 도시한 도면,
도 9 는 전자장치의 터치스크린에서 다른 사용자의 디바이스의 상태를 반영하여 그래픽 이미지가 표시되는 것을 도시한 도면,
도 10 은 전자장치의 터치스크린에 표시된 리스트를 스크롤 하는 동작에 대응하여 그래픽 이미지를 표시하는 과정을 설명하는 흐름도,
도 11 은 전자장치의 터치스크린에서 사용자가 홈 화면을 전환하는 동작을 할 때 그래픽 이미지가 표시되는 것을 도시한 도면,
도 12 는 전자장치의 터치스크린에 표시된 리스트를 스크롤하는 동작에 대응하여 그래픽 이미지가 표시되는 것을 도시한 도면,
도 13 은 전자장치의 터치스크린에 표시된 리스트가 더 이상 스크롤 되지 않는 상태에서 사용자의 드래그 동작 이동 거리에 대응하여 그래픽 이미지의 크기를 변경하여 표시하는 것을 도시한 도면이다.
이하에서, 예시적 실시 예들의 이러한 또는 다른 측면들이, 첨부된 도면을 참조하여 상세히 설명된다. 그러나, 본 발명이 실시 예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다. 
또한 본 명세서 및 첨부된 특허 청구범위에 사용된 단수형은 문맥상 명확하게 달리 지적하지 않은 이상 복수형도 포함하는 것으로 의도된 것이다. 또한, 본 명세서에 사용된 "및"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.
또한 본 명세서의 흐름도에 사용된 각 단계는 순서와 무관하게 제공될 수 있다.
도 1 은 본 발명의 일 실시 예에 따른 전자장치의 블럭도이다. 도 1 을 참조하면, 전자장치(100)는 이동통신 유닛(120), 서브통신 유닛(130) 및 커넥터(165)를 이용하여 외부 장치(도시되지 아니함)와 연결될 수 있다.
“외부 장치”는 다른 전자장치(도시되지 아니함), 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 입력 유닛(도시되지 아니함), 태블릿PC(도시되지 아니함) 및 서버(도시되지 아니함)를 포함한다. 전자장치(100)는 휴대 가능하고 데이터 송수신이 가능한 장치로서 적어도 하나의 터치 스크린이 구비될 수 있다. 이러한, 전자장치는 휴대폰, 스마트 폰, 태블릿 PC, 랩탑 PC, PDA, MP3 플레이어, 전자 액자, 키오스크, 3D-TV, 스마트 TV, LED TV, LCD TV등과 같은 다양한 형태의 사용자 단말 장치나, 디스플레이 장치 등으로 구현될 수 있으며, 이외도 주변 기기 또는 원거리에 위치한 다른 장치와 데이터 송수신이 가능한 장치로 구현될 수 있다.
전자장치(100)는 터치스크린(190) 및 터치스크린 컨트롤러(195)를 포함한다. 터치스크린(190) 및 터치스크린 컨트롤러(195)는 표시부(도시되지 아니함)가 될 수 있다.
또한, 전자장치(100)는 제어부(110), 이동통신 유닛(120), 서브통신 유닛(130), 멀티미디어 유닛(140), 카메라 유닛(150), GPS 유닛(155), 입/출력 유닛(160), 센서 유닛(170), 저장부(175) 및 전원공급부(180)를 포함한다.
서브통신 유닛(130)은 무선랜 유닛(131) 및 근거리통신 유닛(132) 중 적어도 하나를 포함하고, 멀티미디어 유닛(140)은 방송통신 유닛(141), 오디오재생 유닛(142) 및 동영상재생 유닛(143) 중 적어도 하나를 포함한다. 카메라 유닛(150)은 제 1 카메라(151) 및 제 2 카메라(152) 중 적어도 하나를 포함하고, 입/출력 유닛(160)은 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 키패드(166) 및 입력 유닛(167) 중 적어도 하나를 포함하고, 센서 유닛(170)은 근접 센서(171), 조도 센서(172)를 포함한다.
제어부(110)는 CPU(Central Processing Unit, 111), 전자장치의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 112) 및 전자장치의 외부로부터 입력되는 신호 또는 데이터를 저장하거나, 전자장치에서 수행되는 작업에 대한 저장영역으로 사용되는 램(RAM, 113)을 포함할 수 있다.
제어부(110)는 전자장치의 전반적인 동작 및 전자장치의 내부 구성요소들(120 내지 195) 간의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 제어부(110)는 전원공급부(180)로부터 내부 구성요소들(120 내지 195)에게 전원 공급을 제어한다. 또한, 제어부(110)는 저장부(175)에 저장된 OS(Operation System) 및 어플리케이션을 실행한다.
CPU(111)는 그래픽 처리를 위한 GPU(Graphic Processing Unit, 도시되지 아니함)를 포함할 수 있다. CPU(111)는 코어(도시되지 아니함)와 GPU(도시되지 아니함)가 원 칩으로 집적되는 SoC(System On Chip)로 구현될 수도 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 배수의 코어를 포함할 수 있다. 또한, CPU(111), 롬(112) 및 램(113)은 내부버스(bus)를 통해 상호 연결될 수 있다.
제어부(110)는 이동통신 유닛(120), 서브통신 유닛(130), 멀티미디어 유닛(140), 카메라 유닛(150), GPS 유닛(155), 입/출력 유닛(160), 센서 유닛(170), 저장부(175), 전원공급부(180), 터치스크린(190) 및 터치스크린 컨트롤러(195)를 제어할 수 있다.
이동통신 유닛(120)은 제어부(110)의 제어에 따라, 하나 또는 복수의 안테나(도시되지 아니함)를 이용하여 이동 통신을 통해 전자장치(100)가 외부 장치와 연결되도록 한다. 이동통신 유닛(120)은 전자장치(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿 PC 또는 다른 전자장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS), 멀티미디어 메시지(MMS) 및 데이터 통신을 위한 무선 신호를 송/수신할 수 있다.
서브통신 유닛(130)은 무선랜 유닛(131)과 근거리통신 유닛(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 유닛(131)만 포함하거나, 근거리통신 유닛(132)만 포함하거나 또는 무선랜 유닛(131)과 근거리통신 유닛(132) 모두 포함할 수 있다.
무선랜 유닛(131)은 제어부(110)의 제어에 따라, AP(access point)(도시되지 아니함)가 설치된 장소에서 무선을 이용하여 인터넷에 연결될 수 있다. 무선랜 유닛(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 유닛(132)은 제어부(110)의 제어에 따라, 전자장치와 외부장치 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association) 및 NFC(Near Field Communication) 등이 포함될 수 있다.
전자장치는 성능에 따라 이동통신 유닛(120), 무선랜 유닛(131), 및 근거리통신 유닛(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 전자장치(100)는 성능에 따라 이동통신 유닛(120), 무선랜 유닛(131), 및 근거리통신 유닛(132)들의 조합을 포함할 수 있다. 본 발명의 실시예에서 “통신 유닛”이라는 용어는 이동통신 유닛(120), 서브 통신 유닛(130)을 포함한다.
멀티미디어 유닛(140)은 방송통신 유닛(141), 오디오재생 유닛(142) 또는 동영상재생 유닛(143)을 포함할 수 있다. 방송통신 유닛(141)은 제어부(110)의 제어에 따라, 방송통신 안테나(도시되지 아니함)를 통해 외부의 방송국에서부터 송출되는 방송 신호(예를 들어, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송부가 정보(예를 들어, EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신하고, 터치스크린, 비디오 코덱 유닛(Codec unit, 도시되지 아니함) 및 오디오 코덱 유닛(도시되지 아니함)을 이용하여 재생할 수 있다.
오디오재생 유닛(142)은 제어부(110)의 제어에 따라, 전자장치의 저장부(175)에 기 저장되거나 또는 휴대장치(100)의 외부에서부터 수신되는 오디오 소스(예를 들어, 파일 확장자가 mp3, wma, ogg 또는 wav인 오디오 파일)를 오디오 코덱 유닛을 이용하여 재생할 수 있다.
동영상 재생 유닛(143)은 제어부(110)의 제어에 따라 전자장치의 저장부(175)에 기 저장되거나 또는 전자장치(100)의 외부에서부터 수신되는 디지털 동영상 파일(예를 들어, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 비디오 코덱 유닛을 이용하여 재생할 수 있다. 전자장치에 설치가능한 대부분의 어플리케이션은 오디오 코덱 유닛 또는 비디오 코덱 유닛을 이용하여 오디오 및 동영상을 재생할 수 있다.
많은 종류의 비디오 및 오디오 코덱 유닛이 생산 및 판매되고 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다. 또한, 동영상재생 유닛(143)은 비디오 코덱 유닛 또는 오디오 코덱 유닛을 이용하여 오디오 소스를 재생할 수 있다.
멀티미디어 유닛(140)은 방송통신 유닛(141)을 제외하고 오디오재생 유닛(142)과 동영상재생 유닛(143)을 포함할 수 있다. 또한, 멀티미디어 유닛(140)의 오디오재생 유닛(142) 또는 동영상재생 유닛(143)은 제어부(110)에 포함될 수 있다. 본 발명의 실시예에서 "비디오 코덱 유닛"이라는 용어는 하나 또는 복수의 비디오 코덱 유닛을 포함한다. 본 발명의 실시예에서 "오디오 코덱 유닛"이라는 용어는 하나 또는 복수의 오디오 코덱 유닛을 포함한다.
카메라 유닛(150)은 제어부(110)의 제어에 따라 정지이미지 또는 동영상을 촬영하는 전면의 제1 카메라(151) 및 후면의 제2 카메라(152) 중 적어도 하나를 포함할 수 있다. 카메라 유닛(150)은 제1 카메라(151)와 제2 카메라(152)중 하나 또는 양자를 모두 포함할 수 있다. 또한, 제1 카메라(151) 또는 제2 카메라(152)는 촬영에 필요한 광량을 제공하는 보조 광원(예를 들어, 플래시(153))를 포함할 수 있다.
GPS 유닛(155)은 지구 궤도상에 있는 복수의 GPS위성(도시되지 아니함)으로부터 전파를 수신한다. 전자장치는 GPS위성(도시되지 아니함)으로부터 GPS 유닛(155)까지의 전파도달시간(Time of Arrival)을 이용하여 전자장치(100)의 위치를 산출할 수 있다.
입/출력 유닛(160)은 복수의 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 키패드(166) 및 입력 유닛(167) 중 적어도 하나를 포함할 수 있다.
버튼(161)은 물리적 버튼이 아니라 터치 버튼으로 구현될 수 있다. 또한, 버튼(161)은 터치 스크린(190)내에 표시될 수 있다.
마이크(162)는 제어부(110)의 제어에 따라, 외부로부터 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성한다. 마이크(162)에서 생성된 전기적인 신호는 오디오 코덱 유닛에서 변환되어 저장부(175)에 저장되거나 또는 스피커(163)를 통해 출력될 수 있다.
스피커(163)는 제어부(110)의 제어에 따라 오디오 코덱 유닛을 이용하여 이동통신 유닛(120), 서브통신 유닛(130), 멀티미디어 유닛(140) 또는 카메라 유닛(150)의 다양한 신호(예를 들어, 무선신호, 방송신호, 오디오 소스, 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 전자장치(100) 외부로 출력할 수 있다.
스피커(163)는 전자장치(100)가 수행하는 기능에 대응되는 사운드(예를 들어, 전화 통화에 대응되는 버튼 조작음, 또는 통화 연결음)를 출력할 수 있다.
진동모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 다른 휴대 장치(도시되지 아니함)로부터 음성통화 요청이 수신되는 경우, 진동 모드에 있는 전자장치(100)에서 진동모터(164)가 동작한다. 진동모터(164)는 전자장치(100)에 하나 또는 복수로 위치할 수 있다. 또한, 진동모터(164)는 전자장치(100) 전체를 진동되게 하거나 또는 전자장치(100)의 일부분만 진동되게 할 수 있다.
커넥터(165)는 전자장치(100)와 외부 장치(도시되지 아니함) 또는 전원소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 제어부(110)의 제어에 따라, 커넥터(165)에 연결된 유선 케이블을 통해 전자장치(100)의 저장부(175)에 저장된 데이터를 외부 장치(도시되지 아니함)로 전송하거나 또는 외부 장치(도시되지 아니함)에서부터 데이터를 수신할 수 있다. 커넥터(165)에 연결된 유선 케이블을 통해 전원소스(도시되지 아니함)에서부터 전원이 입력되거나 배터리(도시되지 아니함)를 충전할 수 있다.
키패드(166)는 전자장치의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 전자장치(100)에 형성되는 물리적인 키패드(도시되지 아니함) 또는 터치스크린(190)에 표시되는 가상 키패드(도시되지 아니함)를 포함한다. 전자장치(100)에 형성되는 물리적인 키패드(도시되지 아니함)는 전자장치(100)의 성능 또는 구조에 따라 제외될 수 있다.
입력 유닛(167)은 전자장치(100)의 터치 스크린(190)에 표시되는 객체(예를 들어, 메뉴, 텍스트, 이미지, 도형 및 아이콘)를 터치하거나 선택할 수 있다. 입력 유닛(167)은 예를 들어, 정전 용량 방식, 저항방식, 전자기 유도(electromagnetic induction) 방식 및 전자 마그네틱 반응(EMR:Electro Magnetic Reaction) 방식의 터치스크린을 터치하거나 가상 키보드를 이용하여 문자 등을 입력할 수 있다
센서 유닛(170)은 전자장치에 대한 접근 여부를 검출하는 근접센서(171), 전자장치 주변의 빛의 양을 검출하는 조도센서(172) 등을 포함할 수 있다. 센서 유닛(170)의 센서들은 전자장치의 성능에 따라 추가되거나 삭제될 수 있다.
예를 들면 전자장치(100)에 가해지는 3축의 기울기를 검출하는 가속도 센서(도시되지 아니함), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor)가 포함될 수 있다.
센서 유닛(170)에 포함되는 적어도 하나의 센서는 전자장치(100)의 상태 또는 전자장치 주변의 환경정보를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(110)로 전송한다.
저장부(175)는 제어부(110)의 제어에 따라 이동통신 유닛(120), 서브통신 유닛(130), 멀티미디어 유닛(140), 카메라 유닛(150), GPS 유닛(155), 입/출력 유닛(160), 센서 유닛(170), 및 터치스크린(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 전자장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램과 제조사에서 제공되거나 외부로부터 다운로드 받은 어플리케이션과 관련된 GUI(graphical user interface), GUI를 제공하기 위한 이미지들, 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다.
본 발명의 실시예에서 “저장부”라는 용어는 저장부(175), 제어부(110)내 롬(112), 램(113) 또는 전자장치에 장착되는 메모리 카드(도시되지 아니함)(예를 들어, micro SD 카드, 메모리 스틱)를 포함한다. 저장부는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
전원공급부(180)는 제어부(110)의 제어에 따라, 전자장치에 위치하는 하나 또는 복수의 배터리(도시되지 아니함)에 전원을 공급할 수 있다 또한, 전원공급부(180)는 커넥터(165)와 연결된 유선 케이블(도시되지 아니함)을 통해 외부의 전원 소스(도시되지 아니함)에서부터 입력되는 전원을 전자장치(100)로 공급할 수 있다.
터치스크린(190)은 사용자에게 다양한 서비스(예를 들어, 통화, 데이터 전송, 방송, 사진촬영, 동영상, 또는 어플리케이션)에 대응되는 GUI(Graphical User Interface)와 같은 사용자 인터페이스(user interface)를 제공할 수 있다. 터치스크린(190)은 GUI를 통해 입력되는 하나 또는 복수의 터치에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송한다. 터치스크린(190)은 사용자의 신체(예를 들어, 엄지를 포함하는 손가락) 또는 터치가능한 입력 유닛(167)을 통해 하나 또는 복수의 터치를 입력 받을 수 있다.
본 발명의 실시 예에서 터치는 터치스크린(190)과 사용자의 신체 또는 터치가능한 입력 유닛(167)의 접촉에 한정되지 않고, 비접촉(예를 들어, 사용자의 신체 또는 입력 유닛(167)이 터치스크린(190)으로부터 검출 가능한 간격(가령 30 mm 이하) 이내로 접근하는 호버링(hovering))을 포함할 수 있다. 터치스크린(190)에서 검출 가능한 비접촉 간격은 전자장치의 성능 또는 구조에 따라 변경될 수 있다.
터치스크린(190)은 예를 들어, 저항막(resistive) 방식, 정전 용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.
터치스크린(190)은 액티브 방식의 스타일러스 펜(도시되지 아니함)(이하 "펜"으로 칭함)의 접촉을 감지할 수 있는 전자 마그네틱 반응(EMR:Electro Magnetic Reaction) 패드를 포함할 수 있다.
펜(도시되지 아니함)은 내부에 코일을 포함하고 있으며, 상기 코일에 의해 EMR 패드의 일정 지점에 자기장을 형성할 수 있다. EMR 패드는 형성된 자기장의 위치를 검출하여 펜의 터치 위치를 검출할 수 있다.
전자 마그네틱 반응 패드(이하 'EMR 패드'로 칭함)는 상기 펜에 의해 형성된 자기장의 위치를 검출하여 터치스크린(190)상의 펜 터치 위치를 검출할 수 있다.
터치스크린 컨트롤러(195)는 터치스크린(190)에서부터 수신된 하나 또는 복수의 터치에 대응되는 신호(예를 들어, 터치 위치에 대응되는 X와 Y좌표)를 제어부(110)로 전송한다. 제어부(110)는 터치스크린 컨트롤러(195)로부터 수신된 신호를 이용하여 터치스크린(190)을 제어할 수 있다. 예를 들어, 제어부(110)는 입력된 터치에 응답하여 터치스크린(190)에 표시된 단축 아이콘(도시되지 아니함)이 선택되었음을 표시하거나 또는 선택된 단축 아이콘(도시되지 아니함)에 대응되는 어플리케이션을 실행할 수 있다.
제어부(110)는 터치스크린 컨트롤러(195)로부터 수신된 신호를 이용하여 터치 위치에 대응되는 X와 Y좌표를 산출할 수도 있다. 본 발명의 실시 예에 따라, 하나의 터치스크린 컨트롤러(195)는 터치스크린(190)을 제어한다. 전자장치(100)의 성능 또는 구조에 대응하여 터치스크린 컨트롤러(195)는 제어부(110)에 포함될 수도 있다.
도 1의 전자장치(100)에 도시된 구성요소들은 전자장치의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성요소들의 위치는 전자장치의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
특히, 도 1에 도시된 구성요소들 중에서 이하에서 설명하는 실시 예의 동작과 직접적으로 관련성이 없는 구성요소들은 각 실시 예에 따른 전자 장치의 구성요소로부터 배제될 수도 있다.
가령, 전자 장치는, 터치 스크린(190) 및 제어부(110)를 포함하는 형태로 구현될 수 있다. 터치스크린(190)은 각종 화면을 디스플레이하면서 한편으로는 사용자 입력도 감지할 수 있다. 제어부(110)는 복수의 레이어를 생성하고, 각 레이어를 순차적으로 중첩 표시하여, 화면을 구성할 수 있다. 터치 스크린(190)은 구성된 화면을 디스플레이할 수 있다. 이에 따라, 사용자는 복수의 레이어에 분산 배치된 각종 객체 및 이미지들을 마치 하나의 화면처럼 인식할 수 있다.
구체적으로는, 제어부(110)는 환경정보에 기초하여 복수의 그래픽 이미지 중 어느 하나를 선택하여 제 1 레이어에 제공하고, 터치스크린에 제 1 레이어가 표시되도록 할 수 있다. 또한, 제어부(110)는 제 1 레이어 뒤에 사용자 인터페이스가 제공되는 제 2 레이어가 표시되도록 하고, 제 2 레이어 뒤에 상기 사용자 인터페이스에 대응하는 그래픽 객체를 제공하는 제 3 레이어가 표시되도록 할 수 있다. 또한, 제어부(110)는 제 2 레이어에 제공된 사용자 인터페이스를 터치하는 사용자 입력에 기초하여 제 1 레이어에 제공되는 상기 그래픽 이미지가 시각적으로 변형되도록 제어할 수 있다. 여기서, 각 레이어의 표시 순서는 다양하게 설정될 수 있다. 이하에서는, 복수의 레이어를 이용하여 화면을 구성하는 방법에 대하여 구체적으로 설명한다.
도 2 는 본 발명의 일 실시 예에 따른 전자장치의 터치스크린에 표시되는 레이어를 도시한 도면이다. 도 1 및 도 2 를 참조하면 터치스크린(190)에 제 1 레이어(210), 제 2 레이어(220), 제 3 레이어(230) 및 배경 이미지(242)가 표시되어 있다.
제 1 레이어(210)에는 환경정보에 기초한 그래픽 이미지(212)가 표시될 수 있다. 제 1 레이어(210) 뒤에는 제 2 레이어(220)가 표시될 수 있다. 제 2 레이어(220)에는 사용자와 상호작용이 가능한 사용자 인터페이스(222)가 표시될 수 있다. 제 2 레이어(220) 뒤에는 제 3 레이어(230)가 표시될 수 있다. 제 3 레이어(230)에는 그래픽 객체(232)가 표시될 수 있다. 제 3 레이어(230) 뒤에는 배경 이미지(242)가 표시될 수 있다.
본 실시 예에서는 제 1 레이어(210) 뒤에 제 2 레이어(220)가 표시되고, 제 2 레이어(220) 뒤에 제 3 레이어(230)가 표시되는 것으로 설명을 하였지만, 레이어가 위치하는 순서는 바뀔 수 있다. 또한 레이어는 3개 이상이 될 수 도 있고, 3개보다 적을 수도 있다. 이에 따라 레이어 별로 표시되는 사용자 인터페이스, 그래픽 객체의 배치도 바뀔 수 있다.
도 3은 본 발명의 일 실시 예에 따른 전자장치의 터치스크린에서 환경정보에 기초하여 그래픽 이미지, 사용자 인터페이스 및 그래픽 객체를 표시하는 과정을 설명하는 흐름도이다.
도 1 및 도 3을 참조하면, 단계 310에서 제어부(110)는 환경정보에 기초하여 복수의 그래픽 이미지 중 어느 하나를 선택하여 제 1 레이어(210)에 제공할 수 있다(단계 310). 환경정보는 날씨정보, 전자장치의 위치 정보, 고도정보 및 방향정보를 포함 할 수 있다. 날씨정보는 전자장치의 이동 통신 유닛(120) 및 서브 통신 유닛(130)을 통해 전자장치의 외부로부터 수신될 수 있다. 날씨정보는 "맑음", "흐림", "비", "눈", "번개" 등과 같은 날씨를 나타내는 정보가 될 수 있다.
또한 환경정보는 사용자의 전자장치와는 다른 상대방 전자장치의 환경정보를 포함할 수 있다. 전자장치는 통신 유닛을 통해 다른 상대방 전자장치의 환경정보를 수신할 수 있다.
위치정보는 GPS 유닛(155)을 통해 수신될 수 있으며, 전자장치의 위치를 제공할 수 있다. 고도정보 및 방향정보는 센서유닛(170)으로부터 얻어질 수 있다. 고도정보는 전자장치가 현재 위치한 곳의 고도를 나타낼 수 있다. 방향정보는 전자장치의 방향을 나타낼 수 있다.
또한 전자장치는 통신 유닛을 통해 상대방 전자장치의 위치정보, 고도정보 및 방향정보를 수신할 수 있다.
제어부(110)는 환경정보를 수신하고, 이에 기초하여 복수의 그래픽 이미지 중에서 어느 하나를 선택할 수 있다. 제어부(110)는 환경정보에 대응하는 복수의 그래픽 이미지 중 어느 하나의 이미지를 선택하여 제 1 레이어(210)에 제공할 수 있다. 복수의 그래픽 이미지는 날씨정보에 대응하는 각각의 그래픽 이미지일 수 있다. 제어부(110)는 날씨가 "맑음"인 경우, "해가 있는 그래픽 이미지"를 제 1 레이어(210)에 제공할 수 있다. 제어부(110)는 날씨가 "흐림"인 경우, "비가 내리는 그래픽 이미지"를 제 1 레이어(210)에 제공할 수 있다. 이에 따라 제 1 레이어(210)에는 "비가 내리는 그래픽 이미지"가 표시될 수 있다.
제어부(110)는 날씨가 "눈"인 경우, "눈이 내리는 그래픽 이미지"를 제 1 레이어(210)에 제공할 수 있다. 이에 따라 제 1 레이어(210)에는 "눈이 내리는 그래픽 이미지"가 표시될 수 있다. 제어부(110)는 날씨가 "번개"인 경우, "번개치는 그래픽 이미지"를 제 1 레이어(210)에 제공할 수 있다. 이에 따라 제 1 레이어(210)에는 "번개치는 이미지" 가 표시될 수 있다.
제어부(110)는 터치스크린(190)에 제 1 레이어(210)를 표시할 수 있다(단계 312). 제 1 레이어(210) 뒤에는 사용자 인터페이스가 제공되는 제 2 레이어(220)를 표시할 수 있다(단계 314). 사용자 인터페이스는 사용자와 상호작용이 가능하다. 사용자 인터페이스는 사용자로부터 입력을 받을 수 있는 소프트 버튼 및 아이콘이 포함될 수 있고, 사용자에게 정보를 제공해주는 위젯이 포함될 수 있다.
제어부(110)는 제 2 레이어(220) 뒤에 사용자 인터페이스에 대응하는 그래픽 객체(232)를 제공하는 제 3 레이어(230)를 표시할 수 있다(단계 316). 그래픽 객체(232)는 사용자 인터페이스(222)와 일대일로 대응될 수 있다. 예를 들면 제 2 레이어(220)의 좌측 하단에 아이콘(222)이 표시되어 있으면, 그래픽 객체(232)도 제 3 레이어(230)의 좌측 하단에 표시 될 수 있다.
제어부(110)는 제 3 레이어(230)에 제공되는 그래픽 객체(232)를 제 2 레이어(220)에 제공되는 사용자 인터페이스(222) 주변에 표시할 수 있다(단계 318). 제 3 레이어(230)에 중첩되어 제 2 레이어(220)가 표시되므로, 시각적으로 그래픽 객체(232)가 사용자 인터페이스(222) 주변에 표시될 수 있다.
제어부(110)는 시간에 따라 제 3 레이어(230)에 제공되는 그래픽 객체를 시각적으로 변형하여 표시 할 수 있다(단계 322). 제어부(110)는 그래픽 객체의 모양, 크기, 색상 및 밝기를 변경하여 표시함으로써 그래픽 객체를 시각적으로 변형할 수 있다. 제어부(110)는 시간이 경과됨에 따라 그래픽 객체의 모양, 크기, 색상 및 밝기를 변경할 수 있다. 예를 들면, 전자장치가 위치하고 있는 곳의 날씨가 "구름이 낀 흐린 날씨"라면, 그래픽 객체는 "구름"이 될 수 있다. 제어부(110)는 시간이 경과됨에 따라 구름의 모양, 크기, 색상 및 밝기를 변경하여 터치스크린(190)에 표시함으로써, 사용자에게 좀 더 현실감 있는 사용자 인터페이스를 제공할 수 있다. 전자장치가 위치하고 있는 곳의 날씨가 "눈이 내리는 날씨"라면 그래픽 객체는 "눈"이 될 수 있다. 제어부(110)는 시간이 경과됨에 따라 눈의 모양, 눈이 쌓이는 정도를 변경하여 터치스크린(190)에 표시함으로써, 사용자에게 좀 더 현실감 있는 사용자 인터페이스를 제공할 수 있다.
제어부(110)는 환경정보에 기초하여 복수의 그래픽 객체 중 어느 하나를 선택하고 선택된 그래픽 객체를 제 3 레이어(230)에 제공할 수 있다(단계 324) 그래픽 객체는 환경정보에 대응하여 복수의 그래픽 객체가 존재할 수 있다. 예를 들면 그래픽 객체는 "눈", "구름" 및 "그림자"를 형상화한 것이 될 수 있다. 제어부(110)는 날씨정보에 기초하여 눈이 내리는 날씨면 "눈" 그래픽 객체를 선택해서 사용자 인터페이스 주변에 표시할 수 있다.
제어부(110)는 센서부(170)에서 출력된 신호에 기초하여 그래픽 객체를 시각적으로 변형하여 제 3 레이어(230)에 제공할 수 있다(단계 326) 예를 들면 센서부에 포함된 조도센서(172)로부터 수신된 신호에 기초하여 그래픽 객체의 밝기를 변경시킬 수 있다. 조도센서(172)는 전자장치 주변의 밝기를 측정할 수 있다. 전자장치 주변의 밝기가 밝으면 제어부(110)는 그래픽 객체의 밝기를 어둡게 변경하고, 전자장치 주변의 밝기가 어두우면 제어부(110)는 그래픽 객체의 밝기를 밝게 변경 할 수 있다. 센서부(170)는 자이로센서(미도시) 및 지자기센서(미도시)를 포함할 수 있다. 제어부는 자이로센서(미도시) 및 지자기센서(미도시)에서 출력된 신호에 기초하여 전자장치(100)의 방향을 결정하고, 전자장치의 방향에 대응하여 그래픽 객체의 모양을 변경할 수 있다.
제어부(110)는 제 2 레이어(220)에 표시되는 사용자 인터페이스에 사용자 입력이 발생하는 빈도에 기초하여 그래픽 객체를 시각적으로 변형하여 표시할 수 있다(단계 328). 예를 들면 사용자가 특정 앱을 자주 실행하면, 제어부(110)는 해당 앱을 실행하기 위한 아이콘 주변에 그래픽 객체를 표시하고, 그 그래픽 객체의 크기를 크게 변경 함으로써 그래픽 객체를 시각적으로 변형하여 표시 할 수 있다.
제어부(110)는 전자장치(100)의 위치 정보에 대응하여 그래픽 객체를 시각적으로 변형하여 터치스크린(190)에 표시 할 수 있다(단계 330). 위치 정보는 방향 정보를 포함할 수 있다. 제어부(110)는 GPS 유닛 및 센서 유닛으로부터 수신된 신호에 기초하여 방향정보를 포함한 전자장치의 위치 정보를 구할 수 있다. 제어부(110)는 위치정보에 기초하여 그래픽 객체의 크기, 모양, 색상 및 밝기를 변형하여 표시할 수 있다.
한편, 도 3은 본 발명의 다양한 실시 예에 따른 화면 표시 방법을 구체적으로 설명하였으나, 화면 표시 방법은 보다 간단한 흐름도로 구현될 수도 있다. 구체적으로는, 환경정보에 기초하여 복수의 그래픽 이미지 중 어느 하나를 선택하여 제 1 레이어에 제공하는 단계, 터치스크린에 제 1 레이어를 표시하는 단계, 제 1 레이어 뒤에 사용자 인터페이스가 제공되는 제 2 레이어를 표시하는 단계, 제 2 레이어 뒤에 사용자 인터페이스에 대응하는 그래픽 객체를 제공하는 제 3 레이어를 표시하는 단계 및 제 2 레이어에 제공된 사용자 인터페이스를 터치하는 사용자 입력에 기초하여, 제 1 레이어에 제공되는 그래픽 이미지를 시각적으로 변형하여 표시하는 단계를 포함하는 화면 표시 방법이 구현될 수도 있다.
이 밖에도, 본 발명의 다양한 실시 예에 따르면, 다양한 순서에 따라 화면 표시 과정이 진행될 수 있으나, 이러한 실시 예들은 도 3에서 설명한 화면 표시 방법의 변형 예에 불과하므로, 각 과정에 대한 구체적인 흐름도에 대한 도시 및 설명은 생략한다.
도 4a 및 도 4b 는 전자장치의 터치스크린에서 시간에 따라 제 3 레이어(230)에 제공되는 그래픽 객체가 시각적으로 변형되어 표시되는 것을 설명하기 위한 도면이다. 도 4a는 태양(402)이 전자장치(404)의 우측 아래에 위치했을 때, 터치스크린(406)에 사용자 인터페이스와 그래픽 객체가 표시되는 것을 도시한 도면이다. 도 4b는 태양(422)이 전자장치(424)의 좌측 위에 위치했을 때 터치스크린에 표시되는 사용자 인터페이스를 도시한 도면이다. 전자장치를 기준으로 태양의 위치가 시간에 따라 변경되므로, 사용자 인터페이스 주변에 표시되는 그래픽 객체의 표시 위치, 크기 및 밝기가 변형될 수 있다.
또한 전자장치의 방향에 따라서 사용자 인터페이스 주변에 표시되는 그래픽 객체의 표시 위치, 크기 및 밝기가 변형될 수 있다.
또한 전자장치가 실내에 위치하는지 또는 실외에 위치하는지에 따라서 사용자 인터페이스 주변에 표시되는 그래픽 객체의 표시 위치, 크기 및 밝기가 변형될 수 있다.
도 1, 도 2 및 도 4a를 참조하면, 터치스크린(406)에 사용자 인터페이스(410, 412, 414, 416)가 표시되어 있다. 태양(402)은 전자장치(404)의 우측 아래에 있다. 사용자 인터페이스(410, 412)는 위젯이 될 수 있다. 사용자 인터페이스(416)는 앱 실행을 위한 아이콘이 될 수 있다. 사용자 인터페이스(414)는 자주 사용되는 앱 실행을 위한 아이콘이 될 수 있다. 사용자 인터페이스(410, 412, 414, 416)는 제 2 레이어(220)에 표시될 수 있다. 그래픽 객체는 사용자 인터페이스(410, 412, 414, 416)의 외곽 부분에 표시될 수 있다. 그래픽 객체는 사용자 인터페이스가 표시되는 제 2 레이어(220)와는 다른 제 3 레이어(230)에 표시될 수 있다.
그래픽 객체는 사용자 인터페이스(410, 412, 414, 416)가 표시되는 위치에 대응하는 위치에 표시될 수 있다. 예를 들면 그래픽 객체(408)는 "그림자"를 표현한 것인데, 사용자 인터페이스(410)의 외곽 부분에 표시되어 있다. 태양(402)이 전자장치(404)의 우측 아래에 위치함에 따라 그래픽 객체(408)는 사용자 인터페이스(428)의 좌측 모서리 부분과 위쪽 모서리 부분에 표시될 수 있다. 사용자 인터페이스(410)는 제 2 레이어(220)에 표시되고, 그래픽 객체(408)는 제 3 레이어(230)에 표시될 수 있다.
제어부(110)는 시간에 따라 제 3 레이어(230)에 제공되는 그래픽 객체가 시각적으로 변형되어 표시되도록 제어할 수 있다. 태양의 위치는 시간에 따라 변경된다. 전자장치가 같은 장소에 있더라도 현재 시간이 몇 시 인지에 따라 태양의 위치가 다르다. 태양(402)의 위치가 변경됨에 따라 사용자 인터페이스(410) 주변에 표시되는 그래픽 객체(408)의 위치도 변경될 수 있다. 태양의 위치에 따라 그림자의 위치가 변경되므로, "그림자"를 묘사한 그래픽 객체(408)는 태양(402)의 위치에 따라, 표시되는 위치, 크기, 모양, 색상 및 밝기가 변경될 수 있다.
제어부(110)는 센서부(170)에서 출력된 신호에 기초하여 그래픽 객체를 시각적으로 변형하여 제 3 레이어(230)에 제공할 수 있다. 그래픽 객체(408)를 시각적으로 변형하는 것은 그래픽 객체의 표시위치, 크기, 모양, 색상 및 밝기를 변경하는 것이다. 제어부(110)는 센서부(170)에서 출력된 신호에 기초하여 전자장치의 방향을 결정할 수 있다. 제어부(110)는 전자장치의 방향에 따라 그래픽 객체(408)의 표시위치, 크기, 모양, 색상 및 밝기를 변경할 수 있다. 제어부(110)는 전자장치의 위치정보에 대응하여 그래픽 객체가 시각적으로 변형되어 표시되도록 제어할 수 있다. 제어부(110)는 GPS 유닛(155), 이동 통신 유닛(120) 및 서브통신 유닛(130)으로부터 수신된 신호에 기초하여 전자장치(404)의 위치를 결정할 수 있다. 제어부(110)는 이동 통신 유닛(120) 및 서브통신 유닛(130)으로부터 수신된 신호에 기초하여 태양(402)의 위치를 결정할 수 있다. 제어부(110)는 전자장치의 방향, 위치 및 태양(402)의 위치에 기초하여 태양(402)이 전자장치(404)를 기준으로 어느 곳에 있는지를 결정하고, 그래픽 객체(408)의 표시 위치, 크기, 모양 색상 및 밝기를 변경할 수 있다.
도 4a 와 도 4b를 비교하면 태양의 위치에 따라 그래픽 객체의 표시 위치가 변경됨을 알 수 있다. 도 4a에서는 그래픽 객체(408)가 사용자 인터페이스(410)의 좌측 및 상부 모서리에 있다. 도 4b에서는 그래픽 객체(430)가 각 사용자 인터페이스(428, 432, 436)의 우측 및 하부 모서리에 있다.
도 4b 를 참조하면 태양(422)이 전자장치(424)의 좌측 위에 있을 때, 터치스크린에 사용자 인터페이스(428, 432, 434, 436) 및 그래픽 객체(430)가 표시되어 있다. 사용자 인터페이스(428, 432, 434, 436)는 제 2 레이어(220)에 표시되어 있다. 그래픽 객체(430)는 사용자 인터페이스(428, 432, 434, 436)의 우측 및 아래 모서리 부분에 표시되어 있다. 그래픽 객체(430)는 그림자를 묘사한 것이므로 태양(422)과 전자장치(424)의 상대적인 위치에 따라 제어부(110)는 그래픽 객체를 시각적으로 변형하여 표시할 수 있다. 태양(422)의 위치는 시간에 따라 위치가 변경되므로, 제어부(110)는 시간에 따라 그래픽 객체의 표시 위치, 크기, 모양 색상 및 밝기를 변경할 수 있다.
도 5a 내지 도 5c 는 전자장치의 터치스크린에서 환경정보에 기초하여 제 3 레이어(230)에 그래픽 객체가 표시되는 다양한 예들을 도시한 도면이다. 도 1, 도 2, 도 5a 내지 도 5c를 참조하면 터치스크린(190)에는 사용자 인터페이스(516, 526, 534), 그래픽 객체(514, 524) 및 그래픽 이미지(512, 522, 532)가 도시되어 있다. 사용자 인터페이스(516, 526, 534)는 사용자한테 정보를 제공해주는 위젯이 될 수 있다. 사용자 인터페이스(516, 526, 534)는 제 2 레이어(220)에 표시될 수 있다. 그래픽 객체(514, 524)는 사용자 인터페이스(516, 526, 534) 주변이나, 사용자 인터페이스(516, 526, 534) 윗 쪽에 표시될 수 있다. 또는, 그래픽 객체(514, 524)는 제 3 레이어(230)에 표시될 수도 있고, 제 1 레이어(210) 에 표시될 수도 있다.
제어부(110)는 환경정보에 기초하여 복수의 그래픽 이미지(512, 522, 532)중 어느 하나를 선택하여 제 1 레이어(210)에 제공할 수 있다. 또는, 제어부(110)는 환경정보에 기초하여 복수의 그래픽 객체(514, 524) 중 어느 하나를 선택하고, 선택 된 그래픽 객체를 제 3 레이어(230)에 제공할 수 있다. 제어부(110)는 제 3 레이어(230)에 제공되는 그래픽 객체가 제 2 레이어(220)에 제공되는 사용자 인터페이스의 주변에 표시되도록 제어 할 수 있다.
예를 들면 도 5a는 눈이 내리는 날씨일 때, 터치스크린(510)에 그래픽 이미지(512), 사용자 인터페이스(516) 및 그래픽 객체(514)가 표시되는 것을 보여준다. 터치스크린(510)에 눈이 내리는 이미지(512)가 표시되고, 위젯(516) 윗쪽 모서리(514)에 눈이 쌓여 있는 형상이 표시되어 있다.
제어부(110)는 이동통신 유닛(120) 및 서브 통신 유닛(130)을 통해 전자장치(100)의 외부로부터 날씨정보를 수신 할 수 있다. 또는 제어부(110)는 전자장치(100)에 포함되어 있는 온도 및 습도센서(미도시)를 이용하여 날씨정보를 결정할 수도 있다. 환경정보는 날씨정보를 포함할 수 있다. 제어부(110)는 환경정보를 "눈내림"으로 결정하고, 복수의 그래픽 이미지(512, 522, 532)중에서 "눈내림" 그래픽 이미지(512)를 선택하여 제 1 레이어(210)에 제공한다. 제어부(110)는 복수의 그래픽 객체(514, 524)중 "눈뭉침" 그래픽 객체(514)를 선택하여 제 3 레이어(230)에 제공한다.
도 5b는 비가 내리는 날씨일 때, 터치스크린(520)에 그래픽 이미지(522), 사용자 인터페이스(526) 및 그래픽 객체(524)가 표시되는 것을 보여준다. 터치스크린(520)에 비가 내리는 이미지(522)가 표시되고, 위젯(526) 윗쪽에 물방울이 있다(524).
제어부(110)는 환경정보를 "비내림"으로 결정하고, 복수의 그래픽 이미지(512, 522, 532)중에서 "비내림" 그래픽 이미지(522)를 선택하여 제 1 레이어(210)에 제공한다. 제어부(110)는 복수의 그래픽 객체(514, 524)중 "물방울" 그래픽 객체(524)를 선택하여 제 3 레이어(230)에 제공한다.
도 5c는 맑은 날씨일 때, 터치스크린(530)에 그래픽 이미지(532), 사용자 인터페이스(534)가 표시되는 것을 보여준다. 맑은 날씨에서는 그래픽 객체를 표시하지 않을 수 있다. 터치스크린(530)에 햇빛이 비치는 이미지(532)가 표시된다. 제어부(110)는 환경정보를 "맑음"으로 결정하고, 복수의 그래픽 이미지(512, 522, 532)중에서 "맑음" 그래픽 이미지(532)를 선택하여 제 1 레이어(210)에 제공한다.
도 6 은 본 발명의 일 실시 예에 따른 전자장치의 터치스크린에서 사용자 입력에 기초하여 제 1 레이어(210)에 표시되는 그래픽 이미지가 시각적으로 변형되어 표시되는 것을 도시한 도면이다. 도 2 및 도 6a를 참조하면 터치스크린(610)에 위젯, 아이콘 및 툴 바가 포함된 홈 화면(614)이 표시되어 있다. 위젯, 아이콘 및 툴 바는 사용자와 상호작용이 가능한 사용자 인터페이스가 될 수 있다. 사용자 인터페이스는 제 2 레이어(220)에 표시될 수 있다. 제어부(110)는 제 2 레이어(220)에 제공된 사용자 인터페이스를 터치하는 사용자 입력에 기초하여 제 1 레이어(210)에 제공되는 그래픽 이미지가 시각적으로 변형되도록 제어할 수 있다. 제어부(110)는 제 1 레이어(210)에 제공되는 그래픽 이미지를 시각적으로 변형하기 위해 그래픽 이미지의 크기, 모양, 색상 및 밝기를 변경할 수 있다.
사용자는 터치스크린(610) 상단에 표시된 툴바(616)를 터치하고 드래그(612)할 수 있다. 도 6b 는 사용자가 툴바(628)를 드래그함에 따라 숨겨져 있던 영역(622)이 나타나는 것을 도시한 것이다. 사용자가 툴바(628)를 드래그(626)하여 아래로 이동시키면, 숨겨진 영역(622)이 터치스크린(620)에 표시되고, 그래픽 이미지(626)가 터치스크린(620)에 표시된다. 예를 들면 눈이 오는 날씨일 때, 제어부(110)는 그래픽 이미지를 "눈내리는 이미지"로 선택한다.
사용자가 툴바를 드래그하여 아래로 이동(626)시키면, 제어부(110)는 툴바(628)의 아래쪽(624)에 "눈내리는 이미지"를 표시한다. 제어부(110)는 사용자가 툴바(628)를 드래그함에 따라 툴바(628)를 이동시키면서 동시에 "눈내리는 이미지"가 터치스크린(620)에 표시되도록 할 수 있다.
도 7a 내지 7d는 본 발명의 일 실시 예에 따른 전자장치의 터치스크린에서 사용자 인터페이스에 사용자 입력이 발생하는 빈도에 기초하여 그래픽 객체가 시각적으로 변형되어 표시되는 것을 도시한 도면이다. 터치스크린(710, 720, 730, 740)에는 사용자 인터페이스(716, 726, 734, 746) 및 환경정보에 따라 각각 다른 형상의 그래픽 객체(714, 724, 744)가 표시될 수 있다. 제어부(110)는 사용자 인터페이스(716, 726, 734, 746)에 사용자 입력이 발생하는 빈도에 기초하여 그래픽 객체(714, 724, 744)가 시각적으로 변형되어 표시되도록 제어할 수 있다.
도 7a 를 참조하면 터치스크린(710)에 주소록이 표시되어 있다. 주소록에는 복수의 주소록 아이템이 포함되어 있다. 주소록 아이템은 사용자와 상호작용이 가능한 사용자 인터페이스이다. 사용자 인터페이스(712, 716)는 주소록 아이템의 일부분이다. 터치스크린(710)에는 눈이 쌓여 있는 형상의 그래픽 객체(714)가 표시될 수 있다. 사용자가 사용자 인터페이스를 터치하는 빈도에 따라 사용자 인터페이스에 표시되는 그래픽 객체의 모양이 시각적으로 변형될 수 있다. 사용자가 터치를 많이 한 사용자 인터페이스(716)에는 그래픽 객체가 표시되어 있지 않다. 사용자가 터치를 조금 한 사용자 인터페이스(712)에는 그래픽 객체(714)가 표시되어 있다. 사용자가 사용자 인터페이스인 주소록 아이템(716)을 터치하는 빈도가 10회 이상이면 주소록 아이템(716)에는 그래픽 객체가 표시되지 않는다. 사용자가 "David"라는 주소록 아이템을 5회 이상 9회 이하 터치하면 눈이 조금 쌓인 형상의 그래픽 객체가 표시될 수 있다. 사용자가 주소록 아이템(712)을 4회 이하 터치하면 눈이 많이 쌓인 형상의 그래픽 객체(714)가 표시될 수 있다.
도 7b 를 참조하면 터치스크린(720)에 주소록이 표시되어 있다. 주소록에는 복수의 주소록 아이템이 포함되어 있다. 주소록 아이템은 사용자와 상호작용이 가능한 사용자 인터페이스이다. 사용자 인터페이스(722, 726)는 주소록 아이템의 일부분이다. 터치스크린(720)에는 먼지가 쌓여 있는 형상의 그래픽 객체(724)가 표시될 수 있다. 사용자가 사용자 인터페이스를 터치하는 빈도에 따라 사용자 인터페이스에 표시되는 그래픽 객체의 모양이 시각적으로 변형될 수 있다. 예를 들면 사용자 인터페이스(726)에는 그래픽 객체가 표시되어 있지 않다. 사용자 인터페이스(722)에는 그래픽 객체(724)가 표시되어 있다. 사용자가 사용자 인터페이스인 주소록 아이템을 터치하는 빈도가 10회 이상이면 주소록 아이템에는 그래픽 객체가 표시되지 않는다. 사용자가 주소록 아이템을 5회 이상 9회 이하 터치하면 먼지가 조금 쌓인 형상의 그래픽 객체가 표시될 수 있다. 사용자가 주소록 아이템을 4회 이하 터치하면 먼지가 많이 쌓인 형상의 그래픽 객체(724)가 표시될 수 있다. 그래픽 객체의 표시 기준이 되는 터치 빈도는 다양한 값으로 결정될 수 있다.
도 7c 를 참조하면 터치스크린(730)에 주소록이 표시되어 있다. 주소록에는 복수의 주소록 아이템이 포함되어 있다. 주소록 아이템은 사용자와 상호작용이 가능한 사용자 인터페이스이다. 사용자 인터페이스(732, 734)는 주소록 아이템의 일부분이다. 터치스크린(730)에는 물방울 형상의 그래픽 객체(736)가 표시될 수 있다. 사용자가 사용자 인터페이스를 터치하는 빈도에 따라 사용자 인터페이스에 표시되는 그래픽 객체의 모양이 시각적으로 변형될 수 있다. 예를 들면 사용자 인터페이스(732)에는 그래픽 객체가 표시되어 있지 않다. 사용자 인터페이스(734)에는 그래픽 객체(736)가 표시되어 있다. 사용자가 사용자 인터페이스인 주소록 아이템을 터치하는 빈도가 10회 이상이면 주소록 아이템에는 그래픽 객체가 표시되지 않는다. 사용자가 주소록 아이템을 5회 이상 9회 이하 터치하면 물방울이 조금 있는 형상의 그래픽 객체가 표시될 수 있다. 사용자가 주소록 아이템을 4회 이하로 터치하면 물방울이 많이 있는 형상의 그래픽 객체(736)가 표시될 수 있다.
도 7d 를 참조하면 터치스크린(740)에 주소록이 표시되어 있다. 주소록에는 복수의 주소록 아이템이 포함되어 있다. 주소록 아이템은 사용자와 상호작용이 가능한 사용자 인터페이스이다. 사용자 인터페이스(742, 746)는 주소록 아이템의 일부분이다. 터치스크린(740)에는 "구름 형상"의 그래픽 객체(744)가 표시될 수 있다. 사용자가 사용자 인터페이스를 터치하는 빈도에 따라 사용자 인터페이스에 표시되는 그래픽 객체의 모양이 시각적으로 변형될 수 있다. 예를 들면 사용자 인터페이스(746)에는 그래픽 객체가 표시되어 있지 않다. 사용자 인터페이스(742)에는 그래픽 객체(744)가 표시되어 있다. 사용자가 사용자 인터페이스인 주소록 아이템을 터치하는 빈도가 10회 이상이면 주소록 아이템에는 그래픽 객체가 표시되지 않는다. 사용자가 주소록 아이템을 5회 이상 10회 이하 터치하면 "구름이 조금 있는 형상"의 그래픽 객체가 표시될 수 있다. 사용자가 주소록 아이템을 11회 이상 터치하면 "구름이 많이 있는 형상"의 그래픽 객체(744)가 표시될 수 있다.
도 8a 및 8b는 본 발명의 일 실시 예에 따른 전자장치의 터치스크린에서 사용자의 비의도적인 입력이 발생했을 때 그래픽 이미지가 표시되는 것을 도시한 도면이다. 도 8a 를 참조하면 터치스크린(810)에 사용자 인터페이스(812, 814)가 포함된 홈화면이 표시되어 있다. 도 8b를 참조하면 터치스크린(820)에 사용자 인터페이스(822, 824)가 포함된 홈화면 및 그래픽 이미지(826)가 표시되어 있다. 제어부(110)는 터치스크린(820)에 사용자 입력이 검출되면 환경정보에 기초한 그래픽 이미지(826)를 표시할 수 있다.
도 8a에 표시된 홈화면에서 사용자 입력이 검출되면 제어부(110)는 도 8b에 표시된 것처럼 홈화면에 환경정보에 기초한 그래픽 이미지(826)를 표시할 수 있다.
도 9a 내지 도 9d 는 본 발명의 일 실시 예에 따른 전자장치의 터치스크린에서 다른 사용자의 디바이스의 상태를 반영하여 그래픽 이미지가 표시되는 것을 도시한 도면이다. 도 9a를 참조하면 터치스크린(910)에 사용자 인터페이스(912, 914)가 포함된 홈화면이 표시되어 있다. 도 9b를 참조하면 터치스크린(920)에 사용자 인터페이스(922, 924) 및 그래픽 이미지(926)가 표시되어 있다. 제어부(110)는 홈화면이 표시된 상태에서 다른 전자장치의 접근을 검출하고, 검출 결과에 대응하여 홈화면에 환경정보에 기초한 그래픽 이미지(926)를 표시할 수 있다.
제어부(110)는 다른 전자장치와 사용자의 전자장치의 거리에 대응하여 그래픽 이미지를 시각적으로 변형하여 표시할 수 있다. 예를 들면 제어부(110)는 다른 전자장치가 사용자의 전자장치로 다가오면 이에 따라 "비가 내리는 형상"의 그래픽 이미지를 홈화면에 표시할 수 있다. 제어부(110)는 다른 전자장치와 사용자의 전자장치 간의 거리가 가까워질수록 점점 더 많은 비를 홈화면에 표시할 수 있다.
도 9c는 사용자가 대화 상대자와 대화를 하는 화면을 표시한 것이다. 도 9c를 참조하면 터치스크린(930)에 말풍선(932, 934) 및 "물방울 형상"의 그래픽 이미지(936)가 표시되어 있다. 제어부(110)는 이동 통신 유닛(120) 및 서브 통신 유닛(130)을 통해서 대화 상대자인 "Tommy"로부터 날씨정보를 수신한다. 제어부(110)는 수신된 날씨정보에 대응하여 터치스크린(930)에 대화 상대자의 날씨를 반영한 "물방울 형상"의 그래픽 이미지(936)를 말풍선(932, 934)이 표시된 화면에 표시할 수 있다. 말풍선(932, 934)은 사용자 인터페이스가 될 수 있다.
도 9d는 터치스크린(940)에 전화를 건 사람의 이미지(942) 및 환경정보에 기초한 그래픽 이미지(944)를 표시한 화면이다. 전화가 오면 제어부(110)는 전화를 건 사람의 이미지(942)를 터치스크린(940)에 표시한다. 제어부(110)는 이동통신 유닛(120) 및 서브통신 유닛(130)으로부터 수신된 신호에 기초하여 송신자의 이미지와 송신자의 환경정보에 기초한 그래픽 이미지를 터치스크린에 표시할 수 있다.
예를 들면 전화를 건 사람이 있는 위치의 날씨정보를 전화와 함께 수신할 수 있다. 제어부(110)는 이동 통신 유닛(120) 및 서브 통신 유닛(130)을 통해 전화 및 송신자의 환경정보를 수신하고 이에 대응하여 송신자의 이미지와 송신자의 환경정보에 기초한 그래픽 이미지를 터치스크린에 표시할 수 있다. 송신자가 있는 곳의 날씨가 비가 오고 있는 상황이면, 제어부(110)는 전화가 왔을 때 송신자의 얼굴 이미지(942)와 송신자의 날씨를 나타내는 "물방울 형상"의 그래픽 이미지(944)를 터치스크린(940)에 표시할 수 있다.
도 10 은 전자장치의 터치스크린에 표시된 리스트를 스크롤 하는 동작에 대응하여 그래픽 이미지를 표시하는 방법의 일 예를 설명하는 흐름도이다. 도 1 및 도 10을 참조하면 제어부(110)는 환경정보에 기초하여 복수의 그래픽 이미지 중 어느 하나를 선택한다(단계 1010). 환경정보는 날씨정보, 전자장치의 위치 정보, 고도정보 및 방향정보를 포함 할 수 있다. 날씨정보는 전자장치의 이동 통신 유닛(120) 및 서브 통신 유닛(130)을 통해 외부로부터 수신될 수 있다. 날씨정보는 "맑음", "흐림", "비", "눈", "번개" 등과 같은 날씨를 나타내는 정보가 포함 될 수 있다. 복수의 그래픽 이미지는 날씨정보에 대응하는 각각의 그래픽 이미지가 될 수 있다. 복수의 그래픽 이미지는 날씨정보에 따라 "맑음"을 나타내는 그래픽 이미지, "비내림"을 나타내는 그래픽 이미지, "흐림"을 나타내는 그래픽 이미지, "눈내림"을 나타내는 그래픽 이미지, "번개"를 나타내는 그래픽 이미지 등이 될 수 있다.
제어부(110)는 터치스크린(190)에 리스트를 표시한다(단계 1012). 리스트는 주소록처럼 복수의 아이템이 연속해서 표시되는 사용자 인터페이스가 될 수 있다. 제어부(110)는 리스트가 표시된 상태에서 드래그 동작을 검출한다(단계 1014). 터치스크린(190)에 리스트가 표시된 상태에서 사용자가 리스트를 터치하고 드래그하면 리스트는 드래그 동작에 대응하여 스크롤 된다(1016). 제어부(110)는 리스트가 스크롤 되는 동안 단계 1010에서 선택된 그래픽 이미지를 리스트에 중첩하여 표시 할 수 있다(단계 1018). 리스트가 스크롤 되면, 리스트에 포함된 아이템이 스크롤 방향으로 이동한다.
예를 들면 사용자가 손가락으로 리스트를 터치하여 아래로 드래그하면 리스트는 위로 스크롤하고, 이에 따라 리스트의 첫 부분이 표시된다. 제어부(110)는 리스트의 첫 부분이 표시된 상태에서 드래그 동작을 검출하면(단계 1020), 드래그 동작에 대응하여 단계 1010에서 선택된 그래픽 이미지를 리스트에 중첩하여 표시 할 수 있다.
사용자가 손가락으로 리스트를 터치하여 위로 드래그하면 리스트는 아래로 스크롤하고, 이에 따라 리스트의 마지막 부분이 표시된다. 제어부(110)는 리스트의 마지막 부분이 표시된 상태에서 드래그 동작을 검출하면, 제어부(110)는 드래그 동작에 대응하여 단계 1010에서 선택된 그래픽 이미지를 리스트에 중첩하여 표시 할 수 있다.
제어부(110)는 리스트의 첫 부분이 표시된 상태에서 드래그 동작이 검출되면 드래그 동작의 이동거리를 측정 할 수 있다. 드래그 동작의 이동거리는 사용자가 손가락을 터치스크린에 접촉한 상태로 손가락을 이동한 거리이다. 제어부(110)는 드래그 동작의 이동거리에 대응하여 그래픽 이미지의 크기를 변경하여 표시한다(단계 1024).
도 11a 내지 도 11c는 전자장치의 터치스크린에서 사용자가 홈 화면을 전환하는 동작을 할 때 그래픽 이미지가 표시되는 과정의 일 예를 설명하기 위한도면이다. 도 11a를 참조하면 터치스크린(1110)에 홈화면(1116)이 표시되어 있다. 홈화면(1116)에는 사용자 인터페이스(1112, 1114, 1118)가 포함되어 있다. 홈화면(1116)은 복수의 페이지로 구성될 수 있다. 홈 화면에 제 1 페이지(1116)가 표시되어 있다. 사용자가 홈 화면의 제 1 페이지를 좌측으로 드래그(1120)하면, 제 2 페이지가 나타난다. 제어부(110)는 사용자 인터페이스(1112, 1114, 1118)가 포함된 홈 화면에서 드래그 동작을 검출하고, 드래그 동작에 대응하여 환경정보에 기초한 그래픽 객체를 표시할 수 있다. 제어부(110)는 페이지가 전환되는 동안 환경정보에 기초한 그래픽 객체를 표시하고, 페이지 전환이 완료되면 그래픽 객체가 표시되지 않게 한다. 도 11b는 홈 화면이 제 1 페이지(1146)에서 제 2 페이지(1148)로 전환되는 과정을 나타낸 도면이다. 터치스크린(1140)에 제 1 페이지의 사용자 인터페이스(1142, 1144) 일부분 및 제 2 페이지의 사용자 인터페이스(1150)가 표시되어 있다. 제 1 페이지(1146)와 제 2 페이지(1148) 사이의 공간에 여백이 생기고, 상기 여백에 환경정보에 기초한 그래픽 객체(1152)가 표시된다. 예를 들면 눈오는 날씨일 때, 사용자가 사용자 인터페이스가 표시된 홈화면을 드래그하여 페이지를 전환하면, 제 1 페이지에서 제 2 페이지로 전환되는 동안, 제 1 페이지와 제 2 페이지 사이에 여백이 표시되고, 여백 부분에 "눈 모양"의 그래픽 객체(1152)가 표시될 수 있다.
도 11c는 페이지 전환이 완료된 홈 화면을 표시한 것이다. 터치스크린(1160)에는 사용자 인터페이스(1162)가 표시되어 있다. 페이지 전환 동안 터치스크린에 표시되었던 그래픽 객체는 페이지 전환이 완료된 후 터치스크린에서 사라진다.
제어부(110)는 복수의 페이지로 구성된 홈 화면에서, 제 1 페이지가 표시된 상태에서 사용자의 드래그 동작을 검출하고 상기 드래그 동작에 대응하여 제 1 페이지를 제 2 페이지로 전환할 수 있다.
제어부(110)는 제 1 페이지와 제 2 페이지로 전환되는 동안 터치스크린에 제 1 페이지 화면의 일부(1146), 제 2 페이지 화면의 일부(1148) 및 제 1 페이지와 제 2 페이지 사이에 여백을 표시하고, 상기 여백에 환경정보에 기초한 그래픽 객체(1152)를 표시할 수 있다. 제어부(110)는 환경정보에 대응하여 복수의 그래픽 객체 중에서 어느 하나를 선택하여 터치스크린에 표시할 수 있다.
도 12a 내지 도 12c 는 전자장치의 터치스크린에 표시된 리스트를 스크롤하는 동작에 대응하여 그래픽 이미지가 표시되는 것을 도시한 도면이다. 도 12a를 참조하면 터치스크린(1210)에 메시지 리스트(1212)가 표시되어 있다. 사용자가 메시지 리스트(1212)를 터치하여 아래 방향(1214)으로 드래그하면 메시지 리스트(1212)는 스크롤된다. 도 12a에서는 상하 ?항으로 스크롤되는 예를 도시하였으나, 스크롤 방향은 좌우 등과 같이 다양하게 구현될 수 있다.
도 12b는 메시지 리스트가 스크롤 되는 과정을 나타낸 것이다. 도 12b를 참조하면 터치스크린(1220)에 메시지 리스트(1222)가 스크롤 되는 과정이 표시되어 있다. 제어부(110)는 메시지 리스트가 스크롤되는 동안 환경정보에 기초한 그래픽 객체(1224)를 메시지 리스트에 중첩하여 표시할 수 있다.
도 12c는 메시지 리스트의 스크롤 동작이 완료된 상태의 화면을 표시한 것이다. 터치스크린(1230)에 메시지 리스트(1232)가 정지된 상태로 표시되어 있다.
도 13a 내지 도 13e는 전자장치의 터치스크린에 표시된 리스트가 더 이상 스크롤 되지 않는 상태에서 사용자의 드래그 동작 이동 거리에 대응하여 그래픽 이미지의 크기를 변경하여 표시하는 것을 도시한 도면이다. 도 13a를 참조하면 터치스크린(1310)에 메시지 리스트(1312)가 표시되어 있다. 메시지 리스트(1312)는 스크롤이 완료되어 메시지 리스트의 첫부분이 터치스크린에 표시되어 있다. 사용자가 메시지 리스트를 아래(1314)로 드래그하면 메시지 리스트는 더 이상 스크롤을 하지 못한다.
도 13b를 참조하면 터치스크린(1320)에 메시지 리스트(1322)의 첫부분 및 그래픽 객체(1324)가 표시되어 있다. 제어부(110)는 메시지 리스트의 첫부분이 터치스크린에 표시된 상태에서 사용자의 드래그 동작을 감지하면 드래그 동작에 대응하여 환경정보에 기초한 그래픽 객체(1324)를 터치스크린에 표시할 수 있다. 제어부(110)는 사용자의 드래그 동작이 유지되는 동안 환경정보에 기초한 그래픽 객체(1324)를 계속해서 터치스크린(1320)에 표시할 수 있다. 제어부(110)는 메시지 리스트가 표시된 상태에서, 사용자가 메시지 리스트를 드래그하면 드래그 동작의 이동거리를 측정할 수 있다. 예를 들면 사용자가 손가락을 터치스크린에 접촉하고 손가락을 이동시키면 손가락의 이동거리를 측정하고 이동거리를 결정한다. 제어부(110)는 드래그 동작의 이동거리에 대응하여 그래픽 객체가 표시되는 영역의 크기를 조절할 수 있다. 그래픽 객체가 표시되는 영역은 드래그 동작의 이동 거리에 대응하여 크기가 가변 될 수 있다.
또한 제어부는 그래픽 객체 대신 그래픽 이미지를 표시할 수도 있다.
제어부(110)는 메시지 리스트의 첫부분이 터치스크린에 표시된 상태에서 사용자의 드래그 동작을 감지하면 드래그 동작에 대응하여 환경정보에 기초한 그래픽 이미지를 터치스크린에 표시 할 수 있다.
도 13d 및 도 13e는 드래그 동작의 이동거리에 따라 그래픽 객체가 표시되는 영역의 크기가 서로 다른 것을 보여준다. 도 13d에 표시된 그래픽 객체(1340)와 도 13e에 표시된 그래픽 객체(1342)의 표시되는 영역의 크기가 서로 다르다.
도 13c를 참조하면 터치스크린(1330)에 메시지 리스트(1332)는 표시되어 있지만, 그래픽 객체는 표시되어 있지 않다. 제어부(110)는 드래그 동작이 완료되면, 그래픽 객체가 화면에 나타나지 않도록 할 수 있다.
제어부(110)는 스크롤 가능한 사용자 인터페이스가 터치스크린에 표시된 상태에서 사용자의 입력을 검출하고 스크롤이 가능한 경우에는, 사용자의 입력이 검출되는 동안 사용자 입력에 대응하여 상기 사용자 인터페이스를 스크롤하고, 상기 스크롤 동안 그래픽 이미지를 터치스크린에 표시하고, 스크롤이 불가능한 경우에는 사용자의 입력이 검출되는 동안 사용자 입력에 대응하여 그래픽 객체를 사용자 인터페이스와 중첩하여 표시하되, 상기 그래픽 객체가 표시되는 영역의 크기가 상기 사용자 입력의 이동거리에 대응하도록 할 수 있다.
상기에서 설명된 내용들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기의 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
110 : 제어부 190 : 터치 스크린
175 : 저장부

Claims (21)

  1. 전자장치에 있어서,
    사용자 입력을 감지하는 터치스크린; 및
    환경정보에 기초하여 복수의 그래픽 이미지 중 어느 하나를 선택하여 제 1 레이어에 제공하고,
    상기 터치스크린에 상기 제 1 레이어가 표시되도록 하고,
    상기 제 1 레이어 뒤에 사용자 인터페이스가 제공되는 제 2 레이어가 표시되도록 하고,
    상기 제 2 레이어 뒤에 상기 사용자 인터페이스에 대응하는 그래픽 객체를 제공하는 제 3 레이어가 표시되도록 하고,
    상기 제 2 레이어에 제공된 사용자 인터페이스를 터치하는 상기 사용자 입력에 기초하여 상기 제 1 레이어에 제공되는 상기 그래픽 이미지가 시각적으로 변형되도록 제어하는 제어부를 포함하는 전자장치.
  2. 제 1 항에 있어서,
    상기 제어부는,
    시간에 따라 상기 제 3 레이어에 제공되는 상기 그래픽 객체가 시각적으로 변형되어 표시되도록 제어하는 전자장치.
  3. 제 1 항에 있어서,
    상기 제어부는,
    상기 환경정보에 기초하여 복수의 그래픽 객체 중 어느 하나를 선택하고, 상기 선택된 그래픽 객체를 상기 제 3 레이어에 제공하는 것을 특징으로 하는 전자장치.
  4. 제 1 항에 있어서,
    센서부를 더 포함하고,
    상기 제어부는 상기 센서부에서 출력된 신호에 기초하여 상기 그래픽 객체를 시각적으로 변형하여 상기 제 3 레이어에 제공하는 것을 특징으로 하는 전자장치.
  5. 제 1항에 있어서,
    상기 제어부는,
    상기 제 3 레이어에 제공되는 그래픽 객체가 상기 제 2 레이어에 제공되는 상기 사용자 인터페이스의 주변에 표시되도록 제어하는 것을 특징으로 하는 전자장치.
  6. 제 1 항에 있어서,
    상기 제어부는 상기 사용자 인터페이스에 상기 사용자 입력이 발생하는 빈도에 기초하여 상기 그래픽 객체가 시각적으로 변형되어 표시되도록 제어하는 것을 특징으로 하는 전자장치.
  7. 제 1 항에 있어서,
    상기 제어부는 상기 전자장치의 위치 정보에 대응하여 상기 그래픽 객체가 시각적으로 변형되어 표시되도록 제어하는 것을 특징으로 하는 전자장치.
  8. 전자장치에 있어서,
    드래그 동작을 검출하는 터치스크린; 및
    환경정보에 기초하여 복수의 그래픽 이미지 중 어느 하나를 선택하고,
    상기 터치스크린에 리스트가 표시되도록 하고,
    상기 리스트가 표시된 상태에서 드래그 동작을 검출하고,
    상기 드래그 동작에 따라 상기 리스트가 스크롤 되도록 하고,
    상기 리스트가 스크롤 되는 동안, 상기 선택된 그래픽 이미지가 상기 리스트에 중첩하여 표시되도록 제어하는 제어부를 포함하는 전자장치.
  9. 제 8 항에 있어서,
    상기 제어부는,
    상기 리스트의 첫 부분이 표시된 상태에서 드래그 동작이 검출되면 상기 드래그 동작에 대응하여 상기 선택된 그래픽 이미지가 상기 리스트에 중첩하여 표시되도록 제어하는 것을 특징으로 하는 전자장치.
  10. 제 9 항에 있어서,
    상기 제어부는,
    상기 드래그 동작의 이동 거리에 대응하여 상기 그래픽 이미지의 크기를 변경하여 표시되도록 제어하는 것을 특징으로 하는 전자장치.
  11. 터치스크린을 포함하는 전자장치의 화면 표시 방법에 있어서,
    환경정보에 기초하여 복수의 그래픽 이미지 중 어느 하나를 선택하여 제 1 레이어에 제공하는 단계;
    상기 터치스크린에 상기 제 1 레이어를 표시하는 단계;
    상기 제 1 레이어 뒤에 사용자 인터페이스가 제공되는 제 2 레이어를 표시하는 단계;
    상기 제 2 레이어 뒤에 상기 사용자 인터페이스에 대응하는 그래픽 객체를 제공하는 제 3 레이어를 표시하는 단계; 및
    상기 제 2 레이어에 제공된 사용자 인터페이스를 터치하는 사용자 입력에 기초하여, 상기 제 1 레이어에 제공되는 상기 그래픽 이미지를 시각적으로 변형하여 표시하는 단계를 포함하는 화면 표시 방법.
  12. 제 11항에 있어서,
    시간에 따라 상기 제 3 레이어에 제공되는 상기 그래픽 객체를 시각적으로 변형하여 표시하는 단계를 더 포함하는 화면 표시 방법.
  13. 제 11항에 있어서,
    상기 환경정보에 기초하여 복수의 그래픽 객체 중 어느 하나를 선택하고, 상기 선택된 그래픽 객체를 상기 제 3 레이어에 제공하는 단계를 더 포함하는 화면 표시 방법.
  14. 제 11 항에 있어서,
    상기 전자장치에 포함된 센서부에서 출력된 신호에 기초하여 상기 그래픽 객체를 시각적으로 변형하여 상기 제 3 레이어에 제공하는 단계를 더 포함하는 화면 표시 방법.
  15. 제 11항에 있어서,
    상기 제 3 레이어에 제공되는 그래픽 객체를 상기 제 2 레이어에 제공되는 사용자 인터페이스의 주변에 표시하는 단계를 더 포함하는 화면 표시 방법.
  16. 제 11 항에 있어서,
    상기 사용자 인터페이스에 상기 사용자 입력이 발생하는 빈도에 기초하여 상기 그래팩 객체를 시각적으로 변형하여 표시하는 단계를 더 포함하는 화면 표시 방법.
  17. 제 11 항에 있어서,
    상기 전자장치의 위치 정보에 대응하여 상기 그래픽 객체를 시각적으로 변형하여 상기 터치스크린에 표시하는 단계를 더 포함하는 화면 표시 방법.
  18. 터치스크린을 포함하는 전자장치의 화면 표시 방법에서,
    환경정보에 기초하여 복수의 그래픽 이미지 중 어느 하나를 선택하는 단계;
    상기 터치스크린에 리스트를 표시하는 단계;
    상기 리스트가 표시된 상태에서 드래그 동작을 검출하는 단계;
    상기 드래그 동작에 응답하여 상기 리스트를 스크롤 하는 단계; 및
    상기 리스트가 스크롤 되는 동안, 상기 선택된 그래픽 이미지를 상기 리스트에 중첩하여 표시하는 단계를 포함하는 화면 표시 방법.
  19. 제 18항에 있어서,
    상기 리스트의 첫 부분이 표시된 상태에서, 드래그 동작을 검출하는 단계; 및
    상기 드래그 동작에 응답하여 상기 선택된 그래픽 이미지를 상기 리스트에 중첩하여 표시하는 단계를 더 포함하는 화면 표시 방법.
  20. 제 19 항에 있어서,
    상기 드래그 동작의 이동 거리에 대응하여 상기 그래픽 이미지의 크기를 변경하여 표시하는 단계를 더 포함하는 화면 표시 방법.
  21. 사용자 단말 장치에 있어서,
    순차적으로 중첩된 복수의 레이어에 의해 구성된 화면을 디스플레이하는 터치스크린; 및
    환경 정보에 대응되는 그래픽 이미지, 사용자 인터페이스, 상기 사용자 인터페이스에 대응하는 그래픽 객체 중 적어도 하나를 상기 복수의 레이어에 분산 배치하는 제어부;를 포함하며,
    상기 제어부는, 상기 터치스크린에 대한 사용자 입력이 감지되면, 상기 사용자 입력에 따라 상기 복수의 레이어 각각의 표시 상태를 조정하는, 사용자 단말 장치.
KR1020130059966A 2013-05-27 2013-05-27 환경정보를 이용한 화면 표시 제어 장치 및 방법 KR20140139377A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020130059966A KR20140139377A (ko) 2013-05-27 2013-05-27 환경정보를 이용한 화면 표시 제어 장치 및 방법
EP20140159058 EP2809055A3 (en) 2013-05-27 2014-03-12 Method and apparatus for controlling screen display using environmental information
PCT/KR2014/004275 WO2014193101A1 (en) 2013-05-27 2014-05-13 Method and apparatus for controlling screen display using environmental information
US14/284,635 US20140351728A1 (en) 2013-05-27 2014-05-22 Method and apparatus for controlling screen display using environmental information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130059966A KR20140139377A (ko) 2013-05-27 2013-05-27 환경정보를 이용한 화면 표시 제어 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20140139377A true KR20140139377A (ko) 2014-12-05

Family

ID=50478659

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130059966A KR20140139377A (ko) 2013-05-27 2013-05-27 환경정보를 이용한 화면 표시 제어 장치 및 방법

Country Status (4)

Country Link
US (1) US20140351728A1 (ko)
EP (1) EP2809055A3 (ko)
KR (1) KR20140139377A (ko)
WO (1) WO2014193101A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111949235A (zh) * 2019-05-15 2020-11-17 Oppo广东移动通信有限公司 图像显示控制方法及相关装置
WO2022025611A1 (ko) * 2020-07-28 2022-02-03 삼성전자 주식회사 홈 화면 설정 방법 및 이를 이용한 전자 장치

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD744508S1 (en) * 2013-01-25 2015-12-01 Htc Corporation Display screen with a graphical user interface
AP00554S1 (en) * 2013-02-23 2014-04-11 Samsung Electronics Co Ltd Display screen or portion thereof with animated graphical user interface
USD741874S1 (en) * 2013-06-09 2015-10-27 Apple Inc. Display screen or portion thereof with animated graphical user interface
USD737319S1 (en) 2013-06-09 2015-08-25 Apple Inc. Display screen or portion thereof with graphical user interface
AP00648S1 (en) * 2013-09-03 2014-12-10 Ji Hye Myung Series of graphical user interfaces for display screens or portions thereof
JP2015088180A (ja) * 2013-09-25 2015-05-07 アークレイ株式会社 電子機器、その制御方法、及び制御プログラム
USD763881S1 (en) * 2013-11-22 2016-08-16 Goldman, Sachs & Co. Display screen or portion thereof with graphical user interface
USD750124S1 (en) * 2013-12-12 2016-02-23 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD757788S1 (en) * 2013-12-23 2016-05-31 Symantec Corporation Display screen or a portion thereof with transitional graphical user interface
USD754703S1 (en) * 2014-01-07 2016-04-26 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD760732S1 (en) * 2014-01-07 2016-07-05 Sony Corporation Display panel or screen with graphical user interface
USD738908S1 (en) * 2014-01-09 2015-09-15 Microsoft Corporation Display screen with animated graphical user interface
CA156714S (en) * 2014-01-28 2019-08-02 Jvl Ventures Llc Handheld electronic device
USD750104S1 (en) * 2014-01-30 2016-02-23 Pepsico, Inc. Display screen or portion thereof with graphical user interface
USD750102S1 (en) * 2014-01-30 2016-02-23 Pepsico, Inc. Display screen or portion thereof with graphical user interface
USD750101S1 (en) * 2014-01-30 2016-02-23 Pepsico, Inc. Display screen or portion thereof with graphical user interface
USD753709S1 (en) * 2014-01-31 2016-04-12 Hitoshi Kawanabe Display screen or portion thereof with animated graphical user interface
USD786280S1 (en) * 2014-05-01 2017-05-09 Beijing Qihoo Technology Company Limited Display screen with a graphical user interface
USD758387S1 (en) * 2014-05-05 2016-06-07 Tencent Technology (Shenzhen) Company Limited Portion of a display screen with animated graphical user interface
USD759666S1 (en) 2014-06-23 2016-06-21 Google Inc. Display screen or portion thereof with an animated graphical user interface
USD754169S1 (en) * 2014-06-23 2016-04-19 Google Inc. Portion of a display panel with an animated computer icon
USD807898S1 (en) 2014-07-15 2018-01-16 Google Llc Display screen or portion thereof with an animated graphical user interface
USD762693S1 (en) 2014-09-03 2016-08-02 Apple Inc. Display screen or portion thereof with graphical user interface
USD766952S1 (en) 2014-12-09 2016-09-20 Jpmorgan Chase Bank, N.A. Display screen or portion thereof with a graphical user interface
USD789954S1 (en) 2014-12-09 2017-06-20 Jpmorgan Chase Bank, N.A. Display screen or portion thereof with a graphical user interface
USD786281S1 (en) * 2014-12-09 2017-05-09 Jpmorgan Chase Bank, N.A. Display screen or portion thereof with a graphical user interface
USD789388S1 (en) * 2014-12-09 2017-06-13 Jpmorgan Chase Bank, N.A. Display screen or portion thereof with a graphical user interface
USD775185S1 (en) 2015-03-06 2016-12-27 Apple Inc. Display screen or portion thereof with graphical user interface
USD772269S1 (en) 2015-06-05 2016-11-22 Apple Inc. Display screen or portion thereof with graphical user interface
USD765699S1 (en) * 2015-06-06 2016-09-06 Apple Inc. Display screen or portion thereof with graphical user interface
USD888733S1 (en) 2015-08-03 2020-06-30 Google Llc Display screen with animated graphical user interface
USD848458S1 (en) * 2015-08-03 2019-05-14 Google Llc Display screen with animated graphical user interface
USD849027S1 (en) * 2015-08-03 2019-05-21 Google Llc Display screen with animated graphical user interface
USD786907S1 (en) * 2015-09-08 2017-05-16 Apple Inc. Display screen or portion thereof with graphical user interface
USD854523S1 (en) * 2015-10-02 2019-07-23 Samsung Electronics Co., Ltd. Mobile device
KR20170046969A (ko) * 2015-10-22 2017-05-04 엘지전자 주식회사 모바일 디바이스 및 그 제어 방법
USD799502S1 (en) * 2015-12-23 2017-10-10 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD808406S1 (en) * 2016-01-22 2018-01-23 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
USD886133S1 (en) * 2016-01-29 2020-06-02 Kyphon SÀRL Display screen with animated graphical user interface
US10748312B2 (en) * 2016-02-12 2020-08-18 Microsoft Technology Licensing, Llc Tagging utilizations for selectively preserving chart elements during visualization optimizations
US10515475B2 (en) * 2016-06-09 2019-12-24 Verizon Patent And Licensing Inc. Implementing layered navigation using interface layers
USD806741S1 (en) * 2016-07-26 2018-01-02 Google Llc Display screen with animated graphical user interface
JP6723895B2 (ja) * 2016-10-25 2020-07-15 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システムおよび情報処理方法
AU2016428048B2 (en) 2016-10-31 2021-02-25 Huawei Technologies Co., Ltd. Method and device for adjusting color temperature, and graphical user interface
KR20180072983A (ko) * 2016-12-22 2018-07-02 삼성전자주식회사 디스플레이 장치 및 방법
USD808413S1 (en) * 2016-12-23 2018-01-23 Beijing Kingsoft Internet Security Software Co., Ltd. Mobile terminal display screen with a graphical user interface
USD868804S1 (en) 2017-01-20 2019-12-03 Twitter, Inc. Display screen with a transitional graphical user interface
USD821435S1 (en) * 2017-02-23 2018-06-26 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD817342S1 (en) * 2017-03-20 2018-05-08 MTL Ventures LLC Display screen with graphical user interface
USD869486S1 (en) * 2017-03-27 2019-12-10 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
USD846587S1 (en) 2017-06-04 2019-04-23 Apple Inc. Display screen or portion thereof with animated graphical user interface
USD875774S1 (en) * 2018-01-04 2020-02-18 Panasonic Intellectual Property Management Co., Ltd. Display screen with graphical user interface
USD958164S1 (en) * 2018-01-08 2022-07-19 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
USD881934S1 (en) * 2018-02-22 2020-04-21 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
CN110351662B (zh) * 2018-04-04 2021-08-20 华为技术有限公司 一种端云协同的方法、平台和装置
USD879132S1 (en) 2018-06-03 2020-03-24 Apple Inc. Electronic device with graphical user interface
USD893512S1 (en) 2018-09-10 2020-08-18 Apple Inc. Electronic device with graphical user interface
KR102232045B1 (ko) * 2019-01-08 2021-03-25 삼성전자주식회사 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능 매체.
USD905737S1 (en) 2019-02-28 2020-12-22 Amazon Technologies, Inc. Display screen or portion thereof having a graphical user interface
USD913306S1 (en) * 2019-02-28 2021-03-16 Amazon Technologies, Inc. Display screen or portion thereof having a graphical user interface
USD910068S1 (en) 2019-05-28 2021-02-09 Apple Inc. Display screen or portion thereof with graphical user interface
CN110415019A (zh) * 2019-06-28 2019-11-05 深圳市华夏光彩股份有限公司 显示屏的广告推荐方法及相关产品
USD910056S1 (en) * 2019-07-12 2021-02-09 Google Llc Display screen with graphical user interface
USD946007S1 (en) * 2019-08-29 2022-03-15 Google Llc Display screen or portion thereof with transitional graphical user interface
USD946009S1 (en) * 2019-08-29 2022-03-15 Google Llc Display screen or portion thereof with transitional graphical user interface
USD946585S1 (en) * 2019-08-29 2022-03-22 Google Llc Display screen or portion thereof with transitional graphical user interface
USD946008S1 (en) 2019-08-29 2022-03-15 Google Llc Display screen or portion thereof with transitional graphical user interface
USD918938S1 (en) * 2019-10-04 2021-05-11 Google Llc Display screen with animated graphical user interface
USD913329S1 (en) * 2019-11-12 2021-03-16 Thales Avs France Sas Display screen or portion thereof with animated graphical user interface
US11524595B2 (en) * 2020-02-21 2022-12-13 Honda Motor Co., Ltd. Electric transport device charging and cleaning station
USD942509S1 (en) * 2020-06-19 2022-02-01 Apple Inc. Display screen or portion thereof with graphical user interface
USD954093S1 (en) * 2020-10-30 2022-06-07 Canva Pty Ltd Display screen or portion thereof with animated graphical user interface
USD972583S1 (en) * 2020-10-30 2022-12-13 Canva Pty Ltd Display screen or portion thereof with graphical user interface
USD972582S1 (en) * 2020-11-17 2022-12-13 Canva Pty Ltd Display screen or portion thereof with graphical user interface
USD976271S1 (en) * 2020-12-18 2023-01-24 Beijing Zitiao Network Technology Co., Ltd. Display screen or portion thereof with a graphical user interface
WO2023163699A1 (en) * 2022-02-23 2023-08-31 Hewlett-Packard Development Company, L.P. Display device settings sizes

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7707514B2 (en) * 2005-11-18 2010-04-27 Apple Inc. Management of user interface elements in a display environment
US8015245B2 (en) * 2006-04-24 2011-09-06 Microsoft Corporation Personalized information communications
KR101482103B1 (ko) * 2008-01-14 2015-01-13 엘지전자 주식회사 날씨정보 표현이 가능한 휴대 단말기 및 그 제어방법
KR101588733B1 (ko) * 2009-07-21 2016-01-26 엘지전자 주식회사 이동 단말기
US8843838B2 (en) * 2009-11-13 2014-09-23 Google Inc. Live wallpaper
KR20110064435A (ko) * 2009-12-08 2011-06-15 엘지전자 주식회사 네트워크 tv의 초기 화면 설정 방법
KR101705119B1 (ko) * 2010-09-15 2017-02-10 삼성전자 주식회사 전자 기기에서 2차원 이미지로 3차원 화면을 구성하는 방법 및 그 전자 기기
US20140201681A1 (en) * 2013-01-16 2014-07-17 Lookout, Inc. Method and system for managing and displaying activity icons on a mobile device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111949235A (zh) * 2019-05-15 2020-11-17 Oppo广东移动通信有限公司 图像显示控制方法及相关装置
CN111949235B (zh) * 2019-05-15 2023-07-28 Oppo广东移动通信有限公司 图像显示控制方法及相关装置
WO2022025611A1 (ko) * 2020-07-28 2022-02-03 삼성전자 주식회사 홈 화면 설정 방법 및 이를 이용한 전자 장치
US11907737B2 (en) 2020-07-28 2024-02-20 Samsung Electronics Co., Ltd. Method for configuring home screen and electronic device using the same

Also Published As

Publication number Publication date
EP2809055A3 (en) 2015-03-25
US20140351728A1 (en) 2014-11-27
EP2809055A2 (en) 2014-12-03
WO2014193101A1 (en) 2014-12-04

Similar Documents

Publication Publication Date Title
KR20140139377A (ko) 환경정보를 이용한 화면 표시 제어 장치 및 방법
US11150775B2 (en) Electronic device and method for controlling screen display using temperature and humidity
KR102481878B1 (ko) 휴대 장치 및 휴대 장치의 화면 표시방법
US9406278B2 (en) Portable device and method for controlling screen brightness thereof
KR102158098B1 (ko) 이미지 인식을 이용한 이미지 레이아웃 방법 및 장치
US20140333551A1 (en) Portable apparatus and method of displaying object in the same
KR20140068573A (ko) 디스플레이 장치 및 그 제어 방법
KR20140013816A (ko) 복수 어플리케이션을 실행하는 디스플레이 장치 및 그 제어 방법
KR20140019088A (ko) 디스플레이 장치 및 그 제어 방법
KR102145577B1 (ko) 사용자 인터페이스 표시 방법 및 장치
EP2680124A2 (en) Apparatus and method for displaying menu in mobile device
KR20140074141A (ko) 단말에서 애플리케이션 실행 윈도우 표시 방법 및 이를 위한 단말
KR20140122458A (ko) 휴대 단말 장치의 화면 표시 방법 및 장치
KR20140118338A (ko) 복수 어플리케이션을 실행하는 디스플레이 장치 및 그 제어 방법
KR20140073381A (ko) 디스플레이 장치 및 그 제어 방법
KR20130126428A (ko) 다중 어플리케이션 실행 장치 및 방법
KR20140062190A (ko) 패럴랙스 스크롤 기능을 가지는 모바일 장치 및 그 제어 방법
CN104035710B (zh) 具有在对象上的预执行的功能的移动设备及其控制方法
KR20140087480A (ko) 복수 어플리케이션을 실행하는 디스플레이 장치 및 그 제어 방법
KR20140123325A (ko) 색상 채우기 효과 적용 방법 및 장치
KR102482630B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR20140117092A (ko) 디스플레이 장치 및 그 제어 방법
KR20150026110A (ko) 아이콘들을 관리하는 방법 및 이를 위한 모바일 단말기
KR20130123794A (ko) 메모용 어플리케이션
KR102187856B1 (ko) 사용자 인터페이스 표시 방법 및 장치

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid