KR20140143547A - 전자 장치에서 객체를 변형하기 위한 장치 및 방법 - Google Patents

전자 장치에서 객체를 변형하기 위한 장치 및 방법 Download PDF

Info

Publication number
KR20140143547A
KR20140143547A KR1020130065205A KR20130065205A KR20140143547A KR 20140143547 A KR20140143547 A KR 20140143547A KR 1020130065205 A KR1020130065205 A KR 1020130065205A KR 20130065205 A KR20130065205 A KR 20130065205A KR 20140143547 A KR20140143547 A KR 20140143547A
Authority
KR
South Korea
Prior art keywords
fog
electronic device
display
shape
touch
Prior art date
Application number
KR1020130065205A
Other languages
English (en)
Inventor
한종호
박혜빈
박홍식
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130065205A priority Critical patent/KR20140143547A/ko
Priority to US14/296,957 priority patent/US20140362109A1/en
Priority to EP14171404.8A priority patent/EP2811391A1/en
Publication of KR20140143547A publication Critical patent/KR20140143547A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/045Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using resistive elements, e.g. a single continuous surface or two parallel surfaces put in contact
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/046Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by electromagnetic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Electromagnetism (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 전자 장치에서 객체를 변형하기 위한 방법은, 표시부의 제 1 표시 계층의 상위에 적어도 하나의 객체를 중첩하여 표시하는 과정과, 입력 정보를 감지하는 과정과, 상기 입력 정보에 따라 상기 적어도 하나의 객체의 형태를 변경하는 과정을 포함한다.

Description

전자 장치에서 객체를 변형하기 위한 장치 및 방법{METHOD AND APPARATUS FOR TRANSFORMING A OBJECT IN AN ELECTRONIC DEVICE}
본 발명은 전자 장치에 관한 것으로서, 전자 장치에서 입력 정보에 따라 객체를 변형하기 위한 장치 및 방법에 관한 것이다.
정보통신 기술 및 반도체 기술의 발전으로 각종 전자 장치들이 다양한 멀티미디어 서비스를 제공하는 멀티미디어 장치로 발전하고 있다. 예를 들어, 전자 장치는 방송 서비스, 무선 인터넷 서비스, 카메라 서비스 및 음악 재생 서비스 등의 다양한 멀티미디어 서비스를 제공할 수 있다.
전자 장치의 사용자는 전자 장치에서 멀티미디어 서비스를 제공함에 따라 더욱 다양한 서비스를 필요로 한다. 이에 따라, 전자 장치는 사용자의 다양한 욕구를 충족시키기 위한 서비스를 필요로 한다.
따라서, 본 발명은 전자 장치에서 표시부에 표시된 객체를 변형하기 위한 장치 및 방법을 제공함에 있다.
본 발명은 전자 장치에서 입력 정보에 따라 표시부에 표시된 안개 표시를 변형하기 위한 장치 및 방법을 제공함에 있다.
본 발명은 전자 장치에서 사용자에 의한 입바람에 따라 표시부에 표시된 안개 표시를 변형하기 위한 장치 및 방법을 제공함에 있다.
본 발명은 전자 장치에서 터치 정보에 따라 표시부에 표시된 안개 표시를 변형하기 위한 장치 및 방법을 제공함에 있다.
본 발명은 전자 장치에서 사용자의 제스쳐에 따라 표시부에 표시된 안개 표시를 변형하기 위한 장치 및 방법을 제공함에 있다.
본 발명은 전자 장치에서 입력 정보에 따라 안개처럼 표시된 잠금 화면을 변형하기 위한 장치 및 방법을 제공함에 있다.
본 발명은 전자 장치에서 안개 표시 모드를 제공하기 위한 장치 및 방법을 제공함에 있다.
본 발명의 목적들을 달성하기 위한 본 발명의 제 1 견지에 따르면, 전자 장치에서 객체를 변형하기 위한 방법은, 표시부의 제 1 표시 계층의 상위에 적어도 하나의 객체를 중첩하여 표시하는 과정과, 입력 정보를 감지하는 과정과, 상기 입력 정보에 따라 상기 적어도 하나의 객체의 형태를 변경하는 과정을 포함한다.
제 1 견지에 따라, 전자 장치에서 안개 효과를 제공하기 위한 방법은, 표시부의 적어도 하나의 영역에 안개를 표시하는 과정과, 사용자에 의한 바람 입력을 감지하는 과정과, 상기 바람 입력에 따라 상기 표시부의 적어도 하나의 영역에 표시된 안개의 형태를 변경하는 과정을 포함한다.
제 1 견지에 따라, 전자 장치에서 안개 효과를 제공하기 위한 방법은, 표시부의 적어도 하나의 영역에 안개를 표시하는 과정과, 사용자의 제스쳐를 감지하는 과정과, 상기 사용자의 제스쳐에 따라 상기 표시부의 적어도 하나의 영역에 표시된 안개의 형태를 변경하는 과정을 포함한다.
제 1 견지에 따라, 전자 장치에서 안개 효과를 제공하기 위한 방법은, 표시부의 적어도 하나의 영역에 안개를 표시하는 과정과, 상기 안개가 표시된 영역에 대한 적어도 하나의 터치를 감지하는 과정과, 상기 터치가 감지된 적어도 하나의 영역의 안개를 제거하는 과정과, 상기 터치 이동을 감지한 경우, 상기 터치 이동에 따라 안개가 제거된 영역을 변경하는 과정을 포함한다.
본 발명의 제 2 견지에 따르면, 전자 장치는, 표시부와, 적어도 하나의 프로세서와, 메모리 및, 상기 메모리에 저장되며, 상기 하나 이상의 프로세서에 의해 구동되는 적어도 하나의 프로그램을 포함하며, 상기 프로세서는, 상기 표시부의 제 1 표시 계층의 상위에 적어도 하나의 객체를 중첩하여 표시하고, 입력 정보에 따라 상기 적어도 하나의 객체의 형태를 변경한다.
제 2 견지에 따르면, 전자 장치는 표시부와, 적어도 하나의 프로세서와, 메모리 및, 상기 메모리에 저장되며, 상기 하나 이상의 프로세서에 의해 구동되는 적어도 하나의 프로그램을 포함하며, 상기 프로그램은, 상기 표시부의 적어도 하나의 영역에 안개를 표시하고, 사용자에 의한 바람 입력을 감지하고, 상기 바람 입력에 따라 상기 표시부의 적어도 하나의 영역에 표시된 안개의 형태를 변경한다.
제 2 견지에 따르면, 전자 장치는, 표시부와, 센싱부와, 적어도 하나의 프로세서와, 메모리 및, 상기 메모리에 저장되며, 상기 하나 이상의 프로세서에 의해 구동되는 적어도 하나의 프로그램을 포함하며, 상기 프로그램은, 상기 표시부의 적어도 하나의 영역에 안개를 표시하고, 상기 센싱부를 이용하여 사용자의 제스쳐를 감지하고, 상기 사용자의 제스쳐에 따라 상기 표시부의 적어도 하나의 영역에 표시된 안개의 형태를 변경한다.
제 2 견지에 따르면, 전자 장치는, 표시부와, 적어도 하나의 프로세서와, 메모리 및, 상기 메모리에 저장되며, 상기 하나 이상의 프로세서에 의해 구동되는 적어도 하나의 프로그램을 포함하며, 상기 프로그램은, 상기 표시부의 적어도 하나의 영역에 안개를 표시하고, 상기 안개가 표시된 영역에 대한 적어도 하나의 터치를 감지하고, 상기 터치가 감지된 적어도 하나의 영역의 안개를 제거하고, 상기 터치 이동을 감지한 경우, 상기 터치 이동에 따라 안개가 제거된 영역을 변경한다.
상술한 바와 같이 전자 장치에서 입력 정보에 따라 표시부의 안개 표시를 변형함으로써, 전자 장치를 사용하는 사용자의 흥미를 유발시킬 수 있다.
또한, 표시부에 안개가 표시된 상태에서는 절전 모드로 전환되지 않도록 제어함으로써, 사용자가 빈번하게 절전모드를 해제해야하는 불편함을 줄일 수 있다.
도 1은 본 발명의 실시 예에 따른 전자 장치의 블록 구성을 도시하는 도면,
도 2는 본 발명의 실시 예에 따른 입바람에 따라 안개 효과를 제어하기 위한 절차를 도시하는 도면,
도 3은 본 발명의 다른 실시 예에 따른 입바람에 따라 안개 효과를 제어하기 위한 절차를 도시하는 도면,
도 4a 내지 도 4c는 본 발명의 실시 예에 따른 입바람에 안개 효과의 화면 구성을 도시하는 도면,
도 5a 내지 도 5c는 본 발명의 실시 예에 따른 전자 장치의 움직임에 따른 안개 효과의 화면 구성을 도시하는 도면,
도 6은 본 발명의 실시 예에 따른 터치 정보에 따라 안개 효과를 제어하기 위한 절차를 도시하는 도면,
도 7은 본 발명의 다른 실시 예에 따른 터치 정보에 따라 안개 효과를 제어하기 위한 절차를 도시하는 도면,
도 8a 내지 도 8c는 본 발명의 실시 예에 따른 터치 정보에 따른 안개 효과의 화면 구성을 도시하는 도면,
도 9는 본 발명의 실시 예에 따른 제스쳐 정보에 따라 안개 효과를 제어하기 위한 절차를 도시하는 도면,
도 10은 본 발명의 다른 실시 예에 따른 제스쳐 정보에 따라 안개 효과를 제어하기 위한 절차를 도시하는 도면,
도 11a 내지 도 11b는 본 발명의 실시 예에 따른 제스쳐 정보에 따른 안개 효과의 화면 구성을 도시하는 도면,
도 12는 본 발명의 실시 예에 따른 안개 효과 제공 시 서비스를 제공하기 위한 절차를 도시하는 도면,
도 13은 본 발명의 실시 예에 따른 안개를 표시하기 위한 절차를 도시하는 도면,
도 14a 내지 도 14c는 본 발명의 실시 예에 따른 안개 효과의 화면 구성을 도시하는 도면, 및
도 15a 내지 도 15c는 본 발명의 실시 예에 따른 전자 장치의 움직임에 따른 안개에 대한 화면 구성을 도시하는 도면.
이하 본 발명의 바람직한 실시 예를 첨부된 도면을 참조하여 상세히 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하 본 발명은 전자 장치에서 입력 정보에 따라 표시부에 표시된 객체를 변형하기 위한 기술에 대해 설명한다.
이하 설명은 전자 장치에서 서비스 화면에 중첩되어 표시된 안개 효과를 입력 정보에 따라 변형하는 것으로 가정하여 설명한다. 이때, 안개 효과는 전자 장치의 서비스 화면이 표시된 제 1 표시 계층의 상위에 중첩되는 별도의 표시 계층을 이용하여 표시되는 표시정보로 실제 자연환경의 안개와 같이 공기의 흐름에 따라 불규칙적인 투명도를 갖는 표시정보를 표시하는 효과를 포함할 수 있다. 여기서, 서비스 화면은 대기 화면, 응용프로그램에 따른 사용자 인터페이스 화면 중 적어도 하나를 포함한다.
이하 설명에서 전자 장치는 메시지를 전송할 수 있는 휴대용 전자 장치(portable electronic device), 휴대용 단말기(portable terminal), 이동 단말기(mobile terminal), 이동 패드(mobile pad), 미디어 플레이어(media player), PDA(Personal Digital Assistant), 데스크탑 컴퓨터(desktop computer), 랩탑 컴퓨터(Laptop computer), 스마트폰(Smart Phone), 넷북(Netbook), 텔레비전(Television), 휴대 인터넷 장치(MID: Mobile Internet Device), 울트라 모바일 PC(UMPC: Ultra Mobile PC), 태블릿 PC(Tablet Personal Computer), 네비게이션, 스마트 TV, 손목시계, 디지털 카메라 및 MP3 등과 같은 장치일 수 있다. 또한, 전자 장치는 상술한 장치들 중 두 가지 이상의 장치들의 기능을 결합한 임의의 전자 장치일 수도 있다.
도 1은 본 발명의 실시 예에 따른 전자 장치의 블록 구성을 도시하고 있다.
도 1에 도시된 바와 같이 전자 장치(100)는 메모리(110), 프로세서 유닛(120), 오디오 처리부(130), 센싱부(140), 입출력 제어부(150), 표시부(160) 및 입력 장치(170)를 포함할 수 있다. 여기서, 메모리(110)는 다수 개 존재할 수도 있다.
각 구성요소에 대해 살펴보면 다음과 같다.
메모리(110)는 전자장치(100)의 동작을 제어하기 위한 프로그램을 저장하는 프로그램 저장부(111) 및 프로그램 수행 중에 발생되는 데이터를 저장하는 데이터 저장부(112)를 포함할 수 있다. 메모리(110)는 휘발성 메모리 (예를 들어, RAM) 또는 비휘발성 메모리 (예를 들어, 플래시 메모리) 또는 그 조합일 수 있다.
프로그램 저장부(111)는 그래픽 사용자 인터페이스(GUI: Graphic User Interface) 프로그램(113) 및 하나 이상의 응용프로그램(114)을 포함할 수 있다. 여기서, 프로그램 저장부(111)에 포함되는 프로그램은 명령어들의 집합으로 명령어 세트(instruction set)로 표현할 수도 있다.
GUI 프로그램(113)은 표시부(160) 상에 그래픽으로 사용자 인터페이스를 제공하기 위한 하나 이상의 소프트웨어 구성요소를 포함한다.
GUI 프로그램(113)은 안개 효과를 표시부(160)에 표시하도록 제어할 수 있다. 예를 들어, GUI 프로그램(113)은 도 4a에 도시된 바와 같이 안개 효과를 이용한 잠금 화면(400)을 표시부(160)에 표시하도록 제어할 수 있다. 다른 예를 들어, GUI 프로그램(113)은 도 14a 내지 도 14b에 도시된 바와 같이 입력장치(170)로부터 제공받은 입바람 정보에 따라 표시부(160)에 안개를 표시하도록 제어할 수도 있다. 만일, 입바람 세기가 기준 세기보다 큰 경우, GUI 프로그램(113)은 도 14c에 도시된 바와 같이 표시부(160)의 전체에 안개를 표시하도록 제어할 수도 있다.
추가적으로, GUI 프로그램(113)은 안개 표시 시간, 전자 장치(100)의 움직임 및 빛의 방향 중 적어도 하나를 고려하여 안개의 형태를 변형하도록 제어할 수도 있다. 예를 들어, GUI 프로그램(113)은 도 15a 내지 도 15c에 도시된 바와 같이 센싱부(140)를 통해 감지한 전자 장치(100)의 움직임에 따라 표시부(160)에 표시된 안개의 형태를 변형하도록 제어할 수 있다. 다른 예를 들어, GUI 프로그램(113)은 안개 표시 시간이 길어질수록 안개 투명도가 진해지도록 제어할 수 있다. 또 다른 예를 들어, GUI 프로그램(113)은 빛의 방향에 따라 표시부(160)에 표시된 안개에 음영을 적용하도록 제어할 수도 있다.
GUI 프로그램(113)은 사용자에 의한 입력 정보에 따라 표시부(160)에 표시된 안개를 제거하도록 제어할 수 있다. 예를 들어, GUI 프로그램(113)은 도 4a에 도시된 바와 같이 입력장치(170)로부터 입바람 정보를 제공받은 경우, 도 4b 내지 도 4c에 도시된 바와 같이 입바람 세기 및 방향 중 적어도 하나를 고려하여 안개를 제거하도록 제어할 수 있다. 만일, 입바람 세기가 기준 세기보다 큰 경우, GUI 프로그램(113)은 도 4c에 도시된 바와 같이 표시부(160)에서 안개를 모두 제거하도록 제어할 수도 있다.
다른 예를 들어, GUI 프로그램(113)은 도 8a 내지 도 8b에 도시된 바와 같이 입력장치(170)로부터 제공받은 터치 정보에 따라 터치 지점을 기준으로 기준 영역의 안개를 제거하도록 제어할 수 있다. 만일, 터치 이동이 감지된 경우, GUI 프로그램(113)은 도 8c에 도시된 바와 같이 터치 이동에 따라 안개를 제거하는 영역이 변경하도록 제어할 수도 있다. 또한, 터치 이동 거리가 기준 거리보다 큰 경우, GUI 프로그램(113)은 도 4c에 도시된 바와 같이 표시부(160)에서 안개를 모두 제거하도록 제어할 수도 있다.
또 다른 예를 들어, GUI 프로그램(113)은 도 11a 내지 도 11b에 도시된 바와 같이 센싱부(140)로부터 제공받은 사용자의 제스쳐 정보에 따라 표시부(160)에 표시된 안개를 제거하도록 제어할 수 있다. 만일, 제스쳐 감지 영역의 크기가 기준 크기보다 큰 경우, GUI 프로그램(113)은 도 4c에 도시된 바와 같이 표시부(160)에서 안개를 모두 제거하도록 제어할 수도 있다.
응용프로그램(114)은 전자장치(100)에 설치된 적어도 하나의 응용 프로그램에 대한 소프트웨어 구성 요소를 포함한다.
프로세서 유닛(120)은 메모리 인터페이스(121), 적어도 하나의 프로세서(processor)(122) 및 주변 장치 인터페이스(123)를 포함한다. 여기서, 프로세서 유닛(120)에 포함되는 메모리 인터페이스(121), 적어도 하나의 프로세서(122) 및 주변 인터페이스(123)는 적어도 하나의 집적화된 회로로 집적화되거나 별개의 구성 요소로 구현될 수 있다.
메모리 인터페이스(121)는 프로세서(122) 또는 주변 장치 인터페이스(123)와 같은 구성요소의 메모리(110) 접근을 제어한다.
주변 장치 인터페이스(123)는 전자장치(100)의 입출력 주변 장치와 프로세서(122) 및 메모리 인터페이스(121)의 연결을 제어한다.
프로세서(122)는 적어도 하나의 소프트웨어 프로그램을 사용하여 전자장치(100)가 다양한 멀티미디어 서비스를 제공하도록 제어한다. 이때, 프로세서(122)는 메모리(110)에 저장되어 있는 적어도 하나의 프로그램을 실행하여 해당 프로그램에 대응하는 서비스를 제공하도록 제어한다. 예를 들어, 프로세서(122)는 GUI 프로그램(113)을 실행하여 안개 표시 효과를 제어할 수 있다.
오디오 처리부(130)는 스피커(131) 및 마이크로폰(132)을 통해 사용자와 전자 장치(100) 사이의 오디오 인터페이스를 제공한다.
센싱부(140)는 전자 장치(100)의 움직임 또는 사용자의 제스쳐를 감지한다. 예를 들어, 센싱부(140)는 가속도 센서, 지자기 센서, 자이로스코프 및 고도 센서 중 적어도 하나를 포함하여 전자 장치(100)의 움직임을 감지할 수 있다. 다른 예를 들어, 센싱부(140)는 카메라, 적외선 센서 및 근접 센서 중 적어도 하나를 고려하여 사용자의 제스쳐를 감지할 수도 있다.
입출력 제어부(150)는 표시부(160) 및 입력 장치(170) 등의 입출력 장치와 프로세서(120) 사이에 인터페이스를 제공한다.
표시부(160)는 전자장치(100)의 상태 정보, 사용자가 입력하는 문자, 동화상(moving picture) 또는 정화상(still picture) 등을 표시한다. 표시부(160)는 프로세서(122)에 의해 구동되는 응용프로그램 정보를 표시할 수 있다.
표시부(160)는 안개 효과를 표시할 수 있다. 예를 들어, 표시부(160)는 도 4a에 도시된 바와 같이 안개 효과를 이용한 잠금 화면(400)을 표시할 수 있다. 다른 예를 들어, 표시부(160)는 도 14a 내지 도 14b에 도시된 바와 같이 입력장치(170)로부터 제공받은 입바람 정보에 따라 안개를 표시할 수도 있다. 만일, 입바람 세기가 기준 세기보다 큰 경우, 표시부(160)는 도 14c에 도시된 바와 같이 표시부(160)의 전체에 안개를 표시할 수도 있다. 이때, 표시부(160)는 서비스 화면의 상위에 존재하는 표시 계층에 안개를 표시할 수 있다. 또한, 표시부(160)는 입바람에 따라 안개가 서서히 퍼지는 듯하게 안개를 표시할 수도 있다. 이때, 표시부(160)에서 공기가 흐름에 따라 안개가 서서히 퍼지는 듯하게 안개를 표시하는 방식을 안개 표시 효과라 칭할 수 있다.
상술한 바와 같이 안개를 표시하는 경우, 표시부(160)는 서로 다른 형태의 안개를 표시하는 다수 개의 표시 계층들을 중첩하여 다양한 형태의 안개를 표시할 수도 있다.
추가적으로, 표시부(160)는 안개 표시 시간, 전자 장치(100)의 움직임 및 빛의 방향 중 적어도 하나를 고려하여 안개의 형태를 변형할 수도 있다. 예를 들어, 표시부(160)는 도 15a 내지 도 15c에 도시된 바와 같이 센싱부(140)를 통해 감지한 전자 장치(100)의 움직임에 따라 안개의 형태를 변형할 수 있다. 다른 예를 들어, 표시부(160)는 안개 표시 시간이 길어질수록 안개 투명도를 진하게 표시할 수 있다. 또 다른 예를 들어, 표시부(160)는 빛의 방향에 따라 안개에 음영을 다르게 적용할 수도 있다.
표시부(160)는 사용자에 의한 입력 정보에 따라 표시부(160)에 표시된 안개를 제거할 수 있다. 예를 들어, 표시부(160)는 도 4b 내지 도 4c에 도시된 바와 같이 입력장치(170)로부터 제공받은 입바람 정보에 따라 안개를 제거할 수 있다. 이때, 표시부(160)는 입바람에 따라 안개가 서서히 흩어지는 것과 같이 안개를 제거할 수 있다. 만일, 입바람 세기가 기준 세기보다 큰 경우, 표시부(160)는 도 4c에 도시된 바와 같이 모든 안개를 제거할 수도 있다. 이때, 표시부(160)에서 공기가 흐름에 따라 안개가 서서히 흩어지는 것과 같이 안개를 제거하는 방식을 안개 제거 효과라 칭할 수 있다.
다른 예를 들어, 표시부(160)는 도 8a 내지 도 8b에 도시된 바와 같이 입력장치(170)로부터 제공받은 터치 정보에 따라 터치 지점을 기준으로 기준 영역의 안개를 제거할 수 있다. 만일, 터치 이동이 감지된 경우, 표시부(160)는 도 8c에 도시된 바와 같이 터치 이동에 따라 안개를 제거하는 영역을 변경할 수도 있다. 이때, 표시부(160)는 터치가 유지되는 지점은 기준 영역의 안개를 제거하고, 터치가 해제된 지점은 안개가 제거되었던 기준 영역으로 안개가 서서히 퍼지듯이 안개를 표시할 수 있다. 또한, 터치 이동 거리가 기준 거리보다 큰 경우, 표시부(160)는 도 4c에 도시된 바와 같이 모든 안개를 제거할 수도 있다.
또 다른 예를 들어, 표시부(160)는 도 11a 내지 도 11b에 도시된 바와 같이 센싱부(140)로부터 제공받은 사용자의 제스쳐 정보에 따라 안개를 제거할 수 있다. 만일, 제스쳐 감지 영역의 크기가 기준 크기보다 큰 경우, 표시부(160)는 도 4c에 도시된 바와 같이 모든 안개를 제거할 수 있다.
상술한 바와 같이 표시부(160)에 표시된 안개의 적어도 일부를 제거한 경우, 표시부(160)는 안개를 제거한 영역에 안개 표시 계층의 하위에 표시된 서비스 화면을 표시할 수 있다. 예를 들어, 표시부(160)는 안개를 제거한 영역에 대기 화면의 적어도 일부 영역을 표시할 수 있다. 즉, 표시부(160)는 안개를 제거한 영역에 대기 화면에 포함되는 적어도 하나의 객체를 표시할 수 있다.
입력 장치(170)는 사용자의 선택에 의해 발생하는 입력 데이터를 입출력 제어부(150)를 통해 프로세서(122)로 제공한다. 이때, 입력 장치(170)는 적어도 하나의 하드웨어 버튼을 포함하는 키패드 및 터치를 감지하는 터치 패드 등을 포함한다. 예를 들어, 입력 장치(170)는 터치 패드를 통해 감지한 터치 정보를 입출력 제어부(150)를 통해 프로세서(122)로 제공할 수 있다. 다른 예를 들어, 입력 장치(170)는 입바람으로 설정된 주파수 대역의 오디오 신호가 감지되는 경우, 입바람이 감지된 것으로 인식할 수 있다. 이에 따라, 입력 장치(170)는 입바람 감지 정보 및 입바람의 세기를 입출력 제어부(150)를 통해 프로세서(122)로 제공할 수도 있다. 여기서, 입바람의 세기는, 입바람으로 설정된 주파수 대역의 오디오 신호의 세기에 따라 결정될 수 있다.
전자 장치(100)는 음성 통신 및 데이터 통신을 위한 통신시스템을 더 포함할 수도 있다. 이때, 통신 시스템은 서로 다른 통신 네트워크를 지원하는 다Multiple Access) 네트워크, 무선랜, Bluetooth 네트워크 수 개의 통신 서브 모듈들로 구분될 수 있다. 예를 들어, 통신 네트워크는 이들에 한정하지는 않지만, GSM(Global System for Mobile Communication) 네트워크, EDGE(Enhanced Data GSM Environment) 네트워크, CDMA(Code Division Multiple Access) 네트워크, W-CDMA(W-Code Division Multiple Access) 네트워크, LTE(Long Term Evolution) 네트워크, OFDMA(Orthogonal Frequency Division 및 NFC(Near Field Communication) 등을 포함한다.
도 2는 본 발명의 실시 예에 따른 입바람에 따라 안개 효과를 제어하기 위한 절차를 도시하고 있다. 이하 설명은 도 4a 내지 도 4c에 도시된 안개 효과의 화면 구성을 이용하여 안개 효과를 제어하기 위한 절차에 대해 설명한다.
도 2를 참조하면 전자 장치는 201단계에서 입바람을 감지한다. 예를 들어, 전자 장치는 도 4a에 도시된 바와 같이 안개 효과를 이용한 잠금 화면(400)을 표시부(160)에 표시할 수 있다. 이때, 입력장치(170)를 통해 입바람으로 정의된 주파수 대역의 오디오 신호를 감지한 경우, 전자 장치는 사용자에 의한 입바람이 입력되는 것으로 인식할 수 있다. 다른 예를 들어, 전자 장치는 풍속 센서를 이용하여 사용자에 의한 입바람이 입력되는지 감지할 수도 있다.
이후, 전자 장치는 203단계로 진행하여 입바람에 따라 표시부(160)에 표시된 안개를 제거할 수 있다. 예를 들어, 전자 장치는 도 4b 내지 도 4c에 도시된 바와 같이 입바람의 방향 및 입바람의 세기 중 적어도 하나를 고려하여 표시부(160)에 표시된 적어도 일부 영역(420, 430)의 안개를 제거할 수 있다. 이때, 전자 장치는 입바람에 따라 안개가 서서히 흩어지는 것과 같이 안개를 제거할 수 있다. 만일, 입바람 세기가 기준 세기보다 큰 경우, 전자 장치는 도 4c에 도시된 바와 같이 표시부(160)에 표시된 모든 안개를 제거(430)할 수도 있다.
도 3은 본 발명의 다른 실시 예에 따른 입바람에 따라 안개 효과를 제어하기 위한 절차를 도시하고 있다. 이하 설명은 도 4a 내지 도 4c 및 도 5a 내지 도 5c에 도시된 안개 효과의 화면 구성을 이용하여 안개 효과를 제어하기 위한 절차에 대해 설명한다.
도 3을 참조하면 전자 장치는 301단계에서 표시부(160)에 안개를 표시한다. 예를 들어, 전자 장치는 도 4a에 도시된 바와 같이 안개 효과를 이용한 잠금 화면(400)을 표시부(160)에 표시할 수 있다. 구체적으로, 전자 장치는 서로 다른 형태의 안개를 표시하는 다수 개의 표시 계층들을 중첩하여 안개를 표시할 수 있다. 이때, 전자 장치는 안개 표시 시간, 전자 장치(100)의 움직임 및 빛의 방향 중 적어도 하나를 고려하여 표시부(160)에 표시된 안개의 형태를 변형할 수도 있다.
이후, 전자 장치는 303단계로 진행하여 입바람이 감지되는지 확인한다. 예를 들어, 전자 장치는 입력 장치(170)를 통해 입바람으로 정의된 주파수 대역의 오디오 신호를 감지되는지 확인할 수 있다.
입바람이 감지되지 않은 경우, 전자 장치는 301단계로 진행하여 표시부(160)의 안개 표시를 유지할 수 있다.
한편, 입바람이 감지된 경우, 전자 장치는 305단계로 진행하여 입바람에 따라 표시부(160)에 표시된 안개를 제거할 수 있다. 이때, 전자 장치는 입바람에 따라 안개가 서서히 흩어지는 것과 같이 안개를 제거할 수 있다. 예를 들어, 전자 장치는 도 4b에 도시된 바와 같이 표시부(160)에 표시된 적어도 일부 영역(420)의 안개를 제거할 수 있다. 이때, 전자 장치는 입바람의 방향 및 입바람의 세기 중 적어도 하나를 고려하여 표시부(160)에 표시된 적어도 일부 영역의 안개를 제거하는 방향, 속도 및 형태를 결정할 수 있다. 또한, 전자 장치는 도 5a 내지 도 5c에 도시된 바와 같이 센싱부(140)로부터 제공받은 전자 장치의 움직임 정보에 따라 안개를 제거하는 형태를 변형할 수도 있다.
입바람에 따라 안개를 제거하는 경우, 전자 장치는 307단계로 진행하여 입바람의 세기가 기준 세기보다 큰지 확인한다.
입바람의 세기가 기준 세기보다 작거나 같은 경우, 전자 장치는 311단계로 진행하여 입바람이 감지되는지 확인한다. 예를 들어, 전자 장치는 입력 장치(170)를 통해 입바람으로 정의된 주파수 대역의 오디오 신호가 지속적으로 감지되는지 확인할 수 있다.
311단계에서 입바람이 감지되지 않는 경우, 전자 장치는 313단계로 진행하여 안개를 제거한 영역에 안개를 표시한다. 이때, 전자 장치는 입바람에 따라 안개가 서서히 퍼지는 듯하게 안개를 표시할 수 있다.
한편, 311단계에서 입바람이 감지된 경우, 전자 장치는 305단계로 진행하여 입바람에 따라 표시부(160)에 표시된 안개를 제거할 수 있다. 이때, 전자 장치는 입바람에 따라 안개가 서서히 흩어지는 것과 같이 안개를 제거할 수 있다.
한편, 307단계에서 입바람 세기가 기준 세기보다 큰 경우, 전자 장치는 309단계로 진행하여 표시부(160)에 표시된 모든 안개를 제거할 수도 있다. 예를 들어, 입바람 세기가 기준 세기보다 큰 경우, 전자 장치는 도 4c에 도시된 바와 같이 표시부(160)에 표시된 모든 안개를 제거할 수도 있다(430).
도 6은 본 발명의 실시 예에 따른 터치 정보에 따라 안개 효과를 제어하기 위한 절차를 도시하고 있다. 이하 설명은 도 8a 내지 도 8c에 도시된 안개 효과의 화면 구성을 이용하여 안개 효과를 제어하기 위한 절차에 대해 설명한다.
도 6을 참조하면 전자 장치는 601단계에서 터치를 감지한다. 예를 들어, 전자 장치는 도 4a에 도시된 바와 같이 안개 효과를 이용한 잠금 화면(400)을 표시부(160)에 표시할 수 있다. 이때, 전자 장치는 입력장치(170)를 통해 터치가 감지되는지 확인할 수 있다.
이후, 전자 장치는 603단계로 진행하여 표시부(160)에 표시된 안개 중 터치가 감지된 터치 영역의 안개를 제거할 수 있다. 예를 들어, 전자 장치는 도 8a 내지 8b에 도시된 바와 같이 적어도 하나의 터치 영역(802, 812, 822)에 대한 안개를 제거할 수 있다. 만일, 터치 이동 거리가 기준 거리보다 큰 경우, 전자 장치는 도 4c에 도시된 바와 같이 표시부(160)에 표시된 모든 안개를 제거(430)할 수도 있다. 여기서, 터치 영역은 터치 지점(800, 810, 820)을 기준으로 설정된 기준 영역을 나타낼 수 있다.
도 7은 본 발명의 다른 실시 예에 따른 터치 정보에 따라 안개 효과를 제어하기 위한 절차를 도시하고 있다. 이하 설명은 도 8a 내지 도 8c에 도시된 안개 효과의 화면 구성을 이용하여 안개 효과를 제어하기 위한 절차에 대해 설명한다.
도 7을 참조하면 전자 장치는 701단계에서 표시부(160)에 안개를 표시한다. 예를 들어, 전자 장치는 도 4a에 도시된 바와 같이 안개 효과를 이용한 잠금 화면(400)을 표시부(160)에 표시할 수 있다. 구체적으로, 전자 장치는 서로 다른 형태의 안개를 표시하는 다수 개의 표시 계층들을 중첩하여 안개를 표시할 수 있다. 이때, 전자 장치는 안개 표시 시간, 전자 장치(100)의 움직임 및 빛의 방향 중 적어도 하나를 고려하여 표시부(160)에 표시된 안개의 형태를 변형할 수도 있다.
이후, 전자 장치는 703단계로 진행하여 안개를 표시한 영역에 대한 터치가 감지되는지 확인한다.
터치가 감지되지 않은 경우, 전자 장치는 701단계로 진행하여 표시부(160)의 안개 표시를 유지할 수 있다.
한편, 터치가 감지된 경우, 전자 장치는 705단계로 진행하여 터치가 감지된 터치 영역에 대한 안개를 제거할 수 있다. 예를 들어, 도 8a에 도시된 바와 같이 하나의 터치(800)를 감지한 경우, 전자 장치는 터치 지점(800)에 의해 설정된 기준 영역(802)의 안개를 제거할 수 있다. 다른 예를 들어, 도 8b에 도시된 바와 같이 두 개의 터치들(810, 820)을 감지한 경우, 전자 장치는 터치 지점들(810, 820)에 의해 설정된 기준 영역들(812, 822)의 안개를 제거할 수도 있다.
이후, 전자 장치는 707단계로 진행하여 터치 이동이 감지되는지 확인한다. 즉, 전자 장치는 703단계에서 감지한 터치 지점이 이동하는지 확인할 수 있다.
터치 이동이 감지되지 않은 경우, 전자 장치는 715단계로 진행하여 터치가 해제되는지 확인한다.
터치가 해제되지 않은 경우, 전자 장치는 705단계로 진행하여 터치가 감지된 터치 영역에 대한 안개를 제거할 수 있다.
한편, 터치가 해제된 경우, 전자 장치는 717단계로 진행하여 터치가 해제된 지점에 안개를 표시한다. 이때, 전자 장치는 자연 현상과 같이 안개가 서서히 퍼지는 듯하게 터치가 해제된 지점에 안개를 표시할 수 있다.
한편, 707단계에서 터치 이동을 감지한 경우, 전자 장치는 709단계로 진행하여 터치 이동에 따라 안개 제거 영역을 변경할 수 있다. 예를 들어, 도 8c에 도시된 바와 같이 터치 이동(820 -> 830)을 감지한 경우, 전자 장치는 터치 이동에 따라 안개를 제거하는 영역(832)을 변경할 수도 있다. 이때, 전자 장치는 터치가 유지되는 지점의 기준 영역에 대한 안개를 제거하고, 터치가 해제된 지점의 기준 영역은 안개가 서서히 퍼지듯이 안개를 표시할 수 있다.
이후, 전자 장치는 711단계로 진행하여 터치 이동 거리가 기준 거리보다 큰지 확인한다.
터치 이동 거리가 기준 거리보다 작거나 같은 경우, 전자 장치는 715단계로 진행하여 터치가 해제되는지 확인할 수 있다. 다른 예를 들어, 터치 이동 거리가 기준 거리보다 작거나 같은 경우, 전자 장치는 707단계로 진행하여 터치 이동이 지속적으로 감지되는지 확인할 수도 있다.
한편, 터치 이동 거리가 기준 거리보다 큰 경우, 전자 장치는 713단계로 진행하여 표시부(160)에 표시된 모든 안개를 제거할 수도 있다. 예를 들어, 전자 장치는 도 4c에 도시된 바와 같이 표시부(160)에 표시된 모든 안개를 제거할 수도 있다(430).
도 9는 본 발명의 실시 예에 따른 제스쳐 정보에 따라 안개 효과를 제어하기 위한 절차를 도시하고 있다. 이하 설명은 도 11a 내지 도 11b에 도시된 안개 효과의 화면 구성을 이용하여 안개 효과를 제어하기 위한 절차에 대해 설명한다.
도 9를 참조하면 전자 장치는 901단계에서 사용자의 제스쳐를 감지한다. 예를 들어, 전자 장치는 도 4a에 도시된 바와 같이 안개 효과를 이용한 잠금 화면(400)을 표시부(160)에 표시할 수 있다. 이때, 전자 장치는 센싱부(140)의 적외선 센서 또는 카메라를 이용하여 도 11a에 도시된 바와 같은 사용자 손의 움직임을 감지할 수 있다. 또한, 전자 장치는 센싱부(140)의 카메라를 이용하여 도 11b에 도시된 바와 같은 사용자 손의 형상(1110)을 감지할 수 있다.
이후, 전자 장치는 903단계로 진행하여 사용자의 제스쳐가 감지된 영역의 안개를 제거할 수 있다. 예를 들어, 전자 장치는 도 11a에 도시된 바와 같이 사용자 손의 움직임이 감지된 영역(1104)의 안개를 제거할 수 있다. 이때, 전자 장치는 안개가 서서히 흩어지는 것과 같이 안개를 제거할 수 있다. 다른 예를 들어, 전자 장치는 도 11b에 도시된 바와 같이 사용자 손이 위치한 영역(1112)의 안개를 제거할 수 있다. 이때, 전자 장치는 안개가 서서히 흩어지는 것과 같이 안개를 제거할 수 있다.
도 10은 본 발명의 다른 실시 예에 따른 제스쳐 정보에 따라 안개 효과를 제어하기 위한 절차를 도시하고 있다. 이하 설명은 도 11a 내지 도 11b에 도시된 안개 효과의 화면 구성을 이용하여 안개 효과를 제어하기 위한 절차에 대해 설명한다.
도 10을 참조하면 전자 장치는 1001단계에서 표시부(160)에 안개를 표시한다. 예를 들어, 전자 장치는 도 4a에 도시된 바와 같이 안개 효과를 이용한 잠금 화면(400)을 표시부(160)에 표시할 수 있다. 구체적으로, 전자 장치는 서로 다른 형태의 안개를 표시하는 다수 개의 표시 계층들을 중첩하여 안개를 표시할 수 있다. 이때, 전자 장치는 안개 표시 시간, 전자 장치(100)의 움직임 및 빛의 방향 중 적어도 하나를 고려하여 표시부(160)에 표시된 안개의 형태를 변형할 수도 있다.
이후, 전자 장치는 1003단계로 진행하여 사용자의 제스쳐가 감지되는지 확인한다. 예를 들어, 전자 장치는 센싱부(140)의 적외선 센서 또는 카메라를 이용하여 도 11a에 도시된 바와 같은 사용자 손의 움직임이 감지되는지 확인할 수 있다. 다른 예를 들어, 전자 장치는 센싱부(140)의 카메라를 이용하여 도 11b에 도시된 바와 같은 사용자 손의 형상(1110)이 감지되는지 확인할 수도 있다.
사용자의 제스쳐가 감지되지 않은 경우, 전자 장치는 1001단계로 진행하여 표시부(160)의 안개 표시를 유지할 수 있다.
한편, 사용자의 제스쳐가 감지된 경우, 전자 장치는 1005단계로 진행하여 사용자의 제스쳐가 감지된 영역의 안개를 제거할 수 있다. 이때, 전자 장치는 안개가 서서히 흩어지는 것과 같이 제스쳐가 감지된 영역의 안개를 제거할 수 있다. 예를 들어, 도 11a에 도시된 바와 같이 사용자 손의 움직임이 감지된 경우, 전자 장치는 센싱부(140)의 적외선 센서 또는 카메라부를 이용하여 사용자 제스쳐의 움직임 방향 및 위치를 감지할 수 있다. 이에 따라, 전자 장치는 사용자 제스쳐의 움직임 방향을 고려하여 사용자 제스쳐가 감지된 영역(1104)의 안개를 제거할 수 있다. 다른 예를 들어, 전자 장치는 도 11b에 도시된 바와 같이 사용자 손이 위치한 영역(1112)의 안개를 제거할 수 있다.
사용자의 제스쳐가 감지된 영역의 안개를 제거하는 경우, 전자 장치는 1007단계로 진행하여 사용자의 제스쳐가 감지된 영역의 크기가 기준 크기보다 큰지 확인한다.
사용자의 제스쳐가 감지된 영역의 크기가 기준 크기보다 작거나 같은 경우, 전자 장치는 1011단계로 진행하여 사용자의 제스쳐가 감지되는지 확인한다. 예를 들어, 전자 장치는 센싱부(140)를 통해 사용자의 제스쳐가 지속적으로 감지되는지 확인할 수 있다.
1011단계에서 사용자의 제스쳐가 감지되지 않는 경우, 전자 장치는 1013단계로 진행하여 안개를 제거한 영역에 안개를 표시한다. 이때, 전자 장치는 안개가 서서히 퍼지는 듯하게 안개를 표시할 수 있다.
한편, 1011단계에서 사용자의 제스쳐가 감지된 경우, 전자 장치는 1005단계로 진행하여 사용자의 제스쳐가 감지된 영역에 대한 안개를 제거할 수 있다.
한편, 1007단계에서 사용자의 제스쳐가 감지된 영역의 크기가 기준 크기보다 큰 경우, 전자 장치는 1009단계로 진행하여 표시부(160)에 표시된 모든 안개를 제거할 수도 있다.
상술한 바와 같이 전자 장치는 적어도 하나의 입력 정보에 따라 표시부(160)에 표시된 안개의 적어도 일부 영역을 제거할 수 있다. 만일, 서로 다른 형태의 안개를 표시하는 다수 개의 안개 표시 계층들을 중첩하여 표시부(160)에 안개 효과를 표시한 경우, 전자 장치는 적어도 하나의 입력 정보에 따라 적어도 하나의 안개 표시 계층을 제거하여 적어도 일부 영역의 안개를 제거할 수 있다. 다른 예를 들어, 전자 장치는 적어도 하나의 입력 정보에 따라 안개 표시 계층의 표시 순서에 따라 각각의 안개 표시 계층의 안개를 제거할 수 있다. 또 다른 예를 들어, 전자 장치는 적어도 하나의 입력 정보에 따라 적어도 하나의 안개 표시 계층의 안개를 제거할 수도 있다.
상술한 바와 같이 전자 장치는 적어도 일부 영역의 안개를 제거한 경우, 안개를 제거한 영역에 안개 표시 계층의 하위에 표시된 서비스 화면을 표시할 수 있다. 이에 따라, 전자 장치는 하기 도 12에 도시된 바와 같이 안개를 제거한 일부 영역에 표시된 객체의 선택 여부에 따라 서비스를 제공할 수도 있다.
도 12는 본 발명의 실시 예에 따른 안개 효과 제공 시 서비스를 제공하기 위한 절차를 도시하고 있다.
도 12를 참조하면 전자 장치는 1201단계에서 안개를 제거한 영역에 적어도 하나의 객체를 표시한다. 예를 들어, 전자 장치는 도 4a에 도시된 바와 같이 안개 효과를 이용한 잠금 화면(400)을 표시부(160)에 표시할 수 있다. 만일, 입력 장치(170) 또는 센싱부(140)를 통해 사용자에 의한 입력 정보를 감지한 경우, 전자 장치는 입력 정보에 따라 적어도 일부 영역의 안개를 제거할 수 있다. 이때, 전자 장치는 안개를 제거한 일부 영역에 안개 표시 계층의 하위에 표시된 서비스 화면을 표시할 수 있다. 여기서, 객체는 응용프로그램 실행 또는 메뉴 설정을 위한 아이콘을 포함할 수 있다.
이후, 전자 장치는 1203단계로 진행하여 표시부(160)에 표시된 적어도 하나의 객체 중 적어도 하나의 객체에 대한 선택이 감지되는지 확인한다. 예를 들어, 전자 장치는 안개를 제거한 영역에 표시된 적어도 하나의 객체 중 적어도 하나의 객체에 대한 터치가 감지되는지 확인할 수 있다.
객체에 대한 선택이 감지되지 않은 경우, 전자 장치는 1207단계로 진행하여 표시부에 표시된 객체가 존재하는지 확인한다. 예를 들어, 안개 제거를 위한 입력 정보가 감지되지 않는 경우, 전자 장치는 안개를 제거한 영역에 안개를 다시 표시할 수 있다. 이에 따라, 전자 장치는 안개를 제거한 영역이 존재하는지 확인할 수 있다. 또한, 안개를 제거한 영역이 존재하는 경우, 전자 장치는 안개를 제거한 영역에 표시된 객체가 존재하는지 확인할 수 있다.
표시부에 표시된 객체가 존재하지 않는 경우, 전자 장치는 본 알고리즘을 종료한다.
한편, 표시부에 표시된 객체가 존재하는 경우, 전자 장치는 1203단계로 진행하여 표시부(160)에 표시된 적어도 하나의 객체 중 적어도 하나의 객체에 대한 선택이 감지되는지 확인한다.
1203단계에서 객체에 대한 선택이 감지된 경우, 전자 장치는 1205단계로 진행하여 선택된 객체에 따른 서비스를 실행한다. 즉, 전자 장치는 안개 효과를 이용한 잠금 화면이 제거되지 않은 상태에서도 안개를 제거한 일부 영역에 표시된 객체에 따른 서비스를 실행할 수 있다.
도 13은 본 발명의 실시 예에 따른 안개를 표시하기 위한 절차를 도시하고 있다. 이하 설명은 도 14a 내지 도 14c 및 도 15a 내지 도 15c에 도시된 안개 효과의 화면 구성을 이용하여 안개를 표시하기 위한 절차에 대해 설명한다.
도 13을 참조하면 전자 장치는 1301단계에서 서비스 제공 중 입바람이 감지되는지 확인한다. 예를 들어, 전자 장치는 제 1 응용프로그램에 대한 서비스 실행 중 입력 장치(170)를 통해 입바람으로 정의된 주파수 대역의 오디오 신호를 감지되는지 확인할 수 있다.
입바람이 감지된 경우, 전자 장치는 1303단계로 진행하여 입바람에 따라 표시부(160)에 안개를 표시할 수 있다. 이때, 전자 장치는 입바람에 따라 안개가 서서히 퍼지는 것과 같이 안개를 생성할 수 있다. 예를 들어, 도 14a에 도시된 바와 같이 이미지 표시 서비스 제공 중 입바람을 감지한 경우, 전자 장치는 도 14b에 도시된 바와 같이 표시부(160)의 적어도 일부 영역(1420)에 안개를 표시할 수 있다. 이때, 전자 장치는 입바람의 방향 및 입바람의 세기 중 적어도 하나를 고려하여 표시부(160)의 적어도 일부 영역에 안개를 표시하는 방향, 속도 및 형태를 결정할 수 있다. 또한, 전자 장치는 도 15a 내지 도 15c에 도시된 바와 같이 센싱부(140)로부터 제공받은 전자 장치의 움직임 정보에 따라 안개가 표시되는 형태를 변형할 수도 있다.
입바람에 따라 안개를 표시하는 경우, 전자 장치는 1305단계로 진행하여 입바람의 세기가 기준 세기보다 큰지 확인한다.
입바람의 세기가 기준 세기보다 작거나 같은 경우, 전자 장치는 1309단계로 진행하여 입바람이 감지되는지 확인한다. 예를 들어, 전자 장치는 입력 장치(170)를 통해 입바람으로 정의된 주파수 대역의 오디오 신호가 지속적으로 감지되는지 확인할 수 있다.
1309단계에서 입바람이 감지되지 않는 경우, 전자 장치는 1311단계로 진행하여 표시부(160)에 표시된 안개를 제거한다. 이때, 전자 장치는 입바람에 따라 안개가 서서히 흩어지는 듯하게 안개를 제거할 수 있다.
한편, 1309단계에서 입바람이 감지된 경우, 전자 장치는 1303단계로 진행하여 입바람에 따라 표시부(160)에 안개를 표시할 수 있다. 이때, 전자 장치는 입바람에 따라 안개가 서서히 퍼지는 것과 같이 안개를 생성할 수 있다.
한편, 1305단계에서 입바람 세기가 기준 세기보다 큰 경우, 전자 장치는 1307단계로 진행하여 표시부(160)의 전체 영역에 안개를 표시할 수도 있다. 예를 들어, 입바람 세기가 기준 세기보다 큰 경우, 전자 장치는 도 14c에 도시된 바와 같이 표시부(160)의 전체 영역(1430)에 안개를 표시할 수도 있다.
상술한 바와 같이 서비스 제공 중 입바람에 따라 안개를 표시한 경우, 전자 장치는 서비스 화면 표시 계층 상위에 적어도 하나의 안개 표시 계층을 표시할 수 있다. 이때, 전자 장치는 안개가 표시된 상태에서는 절전 모드로 전환하지 않을 수도 있다.
한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 전자 장치의 동작 순서가 변경 또는 병합되거나 재사용 가능하며 생략 등과 같이 여러 가지 변형이 가능하다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (22)

  1. 전자 장치에서 객체를 변형하기 위한 방법에 있어서,
    표시부의 제 1 표시 계층의 상위에 적어도 하나의 객체를 중첩하여 표시하는 과정과,
    입력 정보를 감지하는 과정과,
    상기 입력 정보에 따라 상기 적어도 하나의 객체의 형태를 변경하는 과정을 포함하는 방법.
  2. 제 1항에 있어서,
    상기 적어도 하나의 객체는, 안개 효과를 위한 적어도 하나를 객체를 포함하는 방법.
  3. 제 2항에 있어서,
    상기 적어도 하나의 객체를 중첩하여 표시하는 과정은,
    상기 안개 효과를 위한 서로 다른 형태의 적어도 하나의 객체를 포함하는 다수 개의 표시 계층들을 상기 제 1 표시 계층의 상위에 중첩하여 표시하는 과정을 포함하는 방법.
  4. 제 1항에 있어서,
    상기 적어도 하나의 객체의 형태를 변경하는 과정은,
    사용자에 의한 바람 입력을 감지한 경우, 상기 바람 입력 방향 및 상기 바람 입력 세기 중 적어도 하나에 대응되어 상기 적어도 하나의 객체의 형태를 변경하는 과정을 포함하는 방법.
  5. 제 4항에 있어서,
    상기 적어도 하나의 객체의 형태를 변경한 경우, 상기 형태가 변경된 적어도 하나의 객체가 표시된 영역에 상기 제 1 표시 계층의 정보를 표시하는 과정을 더 포함하는 방법.
  6. 제 1항에 있어서,
    상기 입력 정보를 감지하는 과정은,
    적외선 센서, 카메라 및 근접 센서 중 적어도 하나를 이용하여 사용자의 제스쳐를 감지하는 과정을 포함하는 방법.
  7. 제 6항에 있어서,
    상기 적어도 하나의 객체의 형태를 변경하는 과정은,
    상기 사용자에 의한 제스쳐를 감지한 경우, 상기 사용자 제스쳐의 입력 방향 및 상기 사용자 제스쳐의 입력 범위 중 적어도 하나에 대응되어 상기 적어도 하나의 객체의 형태를 변형하는 과정을 포함하는 방법.
  8. 제 7항에 있어서,
    상기 적어도 하나의 객체의 형태를 변경한 경우, 상기 형태가 변경된 적어도 하나의 객체가 표시된 영역에 상기 제 1 표시 계층의 정보를 표시하는 과정을 더 포함하는 방법.
  9. 제 1항에 있어서,
    상기 적어도 하나의 객체의 형태를 변경하는 과정은,
    터치를 감지한 경우, 상기 터치가 감지된 영역에 포함되는 적어도 하나의 객체의 형태를 변경하는 과정을 포함하는 방법.
  10. 제 9항에 있어서,
    상기 적어도 하나의 객체의 형태를 변경한 경우, 상기 형태가 변경된 적어도 하나의 객체가 표시된 영역에 상기 제 1 표시 계층의 정보를 표시하는 과정을 더 포함하는 방법.
  11. 제 9항에 있어서,
    상기 터치에 대한 이동을 감지한 경우, 상기 터치 이동에 따라 터치가 감지된 영역에 포함되는 적어도 하나의 객체의 형태를 변경하는 과정과,
    상기 터치 이동에 따라 터치가 해지된 영역에 포함되는 적어도 하나의 객체의 형태를 복원하는 과정을 더 포함하는 방법.
  12. 전자 장치에 있어서,
    표시부와,
    적어도 하나의 프로세서와,
    메모리 및,
    상기 메모리에 저장되며, 상기 하나 이상의 프로세서에 의해 구동되는 적어도 하나의 프로그램을 포함하며,
    상기 프로세서는,
    상기 표시부의 제 1 표시 계층의 상위에 적어도 하나의 객체를 중첩하여 표시하고,
    입력 정보에 따라 상기 적어도 하나의 객체의 형태를 변경하는 장치.
  13. 제 12항에 있어서,
    상기 적어도 하나의 객체는, 안개 효과를 위한 적어도 하나를 객체를 포함하는 장치.
  14. 제 13항에 있어서,
    상기 프로세서는, 상기 안개 효과를 위한 서로 다른 형태의 적어도 하나의 객체를 포함하는 다수 개의 표시 계층들을 상기 제 1 표시 계층의 상위에 중첩하여 표시하도록 제어하는 장치.
  15. 제 12항에 있어서,
    상기 프로세서는, 사용자에 의한 바람 입력을 감지한 경우, 상기 바람 입력 방향 및 상기 바람 입력 세기 중 적어도 하나에 대응되어 상기 적어도 하나의 객체의 형태를 변경하도록 제어하는 장치.
  16. 제 15항에 있어서,
    상기 표시부는, 상기 적어도 하나의 객체의 형태를 변경한 경우, 상기 형태가 변경된 적어도 하나의 객체가 표시된 영역에 상기 제 1 표시 계층의 정보를 표시하는 장치.
  17. 제 12항에 있어서,
    사용자의 제스쳐를 감지하는 센싱부를 더 포함하며,
    상기 센싱부는, 적외선 센서, 카메라 및 근접 센서 중 적어도 하나를 포함하는 장치.
  18. 제 17항에 있어서,
    상기 프로세서는, 상기 센싱부를 통해 사용자의 제스쳐를 감지한 경우, 상기 사용자 제스쳐의 입력 방향 및 상기 사용자 제스쳐의 입력 범위 중 적어도 하나에 대응되어 상기 적어도 하나의 객체의 형태를 변경하도록 제어하는 장치.
  19. 제 18항에 있어서,
    상기 표시부는, 상기 적어도 하나의 객체의 형태를 변경한 경우, 상기 형태가 변경된 적어도 하나의 객체가 표시된 영역에 상기 제 1 표시 계층의 정보를 표시하는 장치.
  20. 제 12항에 있어서,
    상기 프로세서는, 터치를 감지한 경우, 상기 터치가 감지된 영역에 포함되는 적어도 하나의 객체의 형태를 변경하도록 제어하는 장치.
  21. 제 20항에 있어서,
    상기 표시부는, 상기 적어도 하나의 객체의 형태를 변경한 경우, 상기 형태가 변경된 적어도 하나의 객체가 표시된 영역에 상기 제 1 표시 계층의 정보를 표시하는 장치.
  22. 제 20항에 있어서,
    상기 프로세서는, 상기 터치에 대한 이동을 감지한 경우, 상기 터치 이동에 따라 터치가 감지된 영역에 포함되는 적어도 하나의 객체의 형태를 변경하고,
    상기 터치 이동에 따라 터치가 해지된 영역에 포함되는 적어도 하나의 객체의 형태를 복원하도록 제어하는 장치.
KR1020130065205A 2013-06-07 2013-06-07 전자 장치에서 객체를 변형하기 위한 장치 및 방법 KR20140143547A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020130065205A KR20140143547A (ko) 2013-06-07 2013-06-07 전자 장치에서 객체를 변형하기 위한 장치 및 방법
US14/296,957 US20140362109A1 (en) 2013-06-07 2014-06-05 Method for transforming an object and electronic device thereof
EP14171404.8A EP2811391A1 (en) 2013-06-07 2014-06-05 Method for transforming an object based on motion, gestures or breath input and electronic device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130065205A KR20140143547A (ko) 2013-06-07 2013-06-07 전자 장치에서 객체를 변형하기 위한 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20140143547A true KR20140143547A (ko) 2014-12-17

Family

ID=51133806

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130065205A KR20140143547A (ko) 2013-06-07 2013-06-07 전자 장치에서 객체를 변형하기 위한 장치 및 방법

Country Status (3)

Country Link
US (1) US20140362109A1 (ko)
EP (1) EP2811391A1 (ko)
KR (1) KR20140143547A (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9760150B2 (en) 2012-11-27 2017-09-12 Nvidia Corporation Low-power states for a computer system with integrated baseband
CN103857019B (zh) 2012-11-30 2018-01-02 辉达公司 一种在移动终端中用于省电的方法
US20140368423A1 (en) * 2013-06-17 2014-12-18 Nvidia Corporation Method and system for low power gesture recognition for waking up mobile devices
US9823728B2 (en) 2013-09-04 2017-11-21 Nvidia Corporation Method and system for reduced rate touch scanning on an electronic device
US9881592B2 (en) 2013-10-08 2018-01-30 Nvidia Corporation Hardware overlay assignment
KR20160071264A (ko) * 2014-12-11 2016-06-21 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
CN107145218B (zh) * 2016-03-01 2020-11-03 北京京东尚科信息技术有限公司 输入设备、移动终端、输入方法和计算机可读存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101391602B1 (ko) * 2007-05-29 2014-05-07 삼성전자주식회사 터치 스크린 기반의 사용자 인터페이스 인터렉션 방법 및 멀티 미디어 단말 기기
KR101509007B1 (ko) * 2009-03-03 2015-04-14 엘지전자 주식회사 진동 모듈을 구비하는 휴대 단말기 및 그 동작방법
US9727226B2 (en) * 2010-04-02 2017-08-08 Nokia Technologies Oy Methods and apparatuses for providing an enhanced user interface
KR20110123933A (ko) * 2010-05-10 2011-11-16 삼성전자주식회사 휴대단말의 기능 제공 방법 및 장치

Also Published As

Publication number Publication date
US20140362109A1 (en) 2014-12-11
EP2811391A1 (en) 2014-12-10

Similar Documents

Publication Publication Date Title
US10452333B2 (en) User terminal device providing user interaction and method therefor
KR102207861B1 (ko) 디스플레이 방법 및 그 방법을 처리하는 전자 장치
CN110377196B (zh) 电子设备及其控制方法
KR102137240B1 (ko) 디스플레이 영역을 조절하기 위한 방법 및 그 방법을 처리하는 전자 장치
US9851898B2 (en) Method for changing display range and electronic device thereof
KR101973631B1 (ko) 전자 기기 및 전자 기기의 제어 방법
KR20140143547A (ko) 전자 장치에서 객체를 변형하기 위한 장치 및 방법
KR102090750B1 (ko) 지문 인식을 위한 전자 장치 및 방법
KR20190108551A (ko) 사용자 단말 장치 및 이의 디스플레이 방법
US20140237367A1 (en) Mobile terminal and control method thereof
KR102474244B1 (ko) 영상 표시 장치 및 그 동작방법
KR20130102834A (ko) 이동 단말기 및 그 제어방법
JP6249652B2 (ja) タッチ機能制御方法及びその電子装置
JP6032702B2 (ja) タッチスクリーンを具備する電子機器における画面拡大装置及び方法
AU2014201249B2 (en) Method for controlling display function and an electronic device thereof
KR20150007048A (ko) 전자 장치의 디스플레이 방법
KR20140040401A (ko) 한 손 제어 모드를 제공하기 위한 방법 및 그 전자장치
KR102113509B1 (ko) 가상 키패드 제어 방법 및 그 전자 장치
KR20140106097A (ko) 전자 장치에서 터치 입력 방식을 결정하기 위한 장치 및 방법
KR101624161B1 (ko) 투과 영역을 포함하는 커버를 가지는 휴대 단말기의 디스플레이 방법 및 장치
KR20150025105A (ko) 전자 장치에서 입력 기능 운영 방법 및 장치
JP2022511144A (ja) 画面表示装置、画面表示制御方法、画面表示制御装置および記憶媒体
KR20130032598A (ko) 휴대용 단말기에서 화면 크기를 조절하기 위한 장치 및 방법
KR102097696B1 (ko) 터치 기능 제어 방법 및 그 전자 장치
KR102305314B1 (ko) 사용자 단말 장치 및 그의 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application