KR20160140221A - 화면 출력 방법 및 이를 지원하는 전자 장치 - Google Patents

화면 출력 방법 및 이를 지원하는 전자 장치 Download PDF

Info

Publication number
KR20160140221A
KR20160140221A KR1020150076559A KR20150076559A KR20160140221A KR 20160140221 A KR20160140221 A KR 20160140221A KR 1020150076559 A KR1020150076559 A KR 1020150076559A KR 20150076559 A KR20150076559 A KR 20150076559A KR 20160140221 A KR20160140221 A KR 20160140221A
Authority
KR
South Korea
Prior art keywords
area
content
input
user
electronic device
Prior art date
Application number
KR1020150076559A
Other languages
English (en)
Other versions
KR102423184B1 (ko
Inventor
조종근
온누리
장철상
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150076559A priority Critical patent/KR102423184B1/ko
Priority to EP16171792.1A priority patent/EP3098703A3/en
Priority to US15/167,387 priority patent/US20160349936A1/en
Priority to CN201610368232.1A priority patent/CN106201390A/zh
Publication of KR20160140221A publication Critical patent/KR20160140221A/ko
Application granted granted Critical
Publication of KR102423184B1 publication Critical patent/KR102423184B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04897Special input arrangements or commands for improving display capability
    • H04N5/44591
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/30Control of display attribute
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Neurology (AREA)
  • Biomedical Technology (AREA)
  • Neurosurgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Dermatology (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Digital Computer Display Output (AREA)

Abstract

본 발명의 다양한 실시 예에 따른 화면 출력 방법은 상기 전자 장치의 디스플레이를 제1 영역 및 제2 영역으로 분할하는 동작, 상기 제1 영역에 제1 컨텐츠를 출력하고, 상기 제2 영역에 제2 컨텐츠를 출력하는 동작, 상기 제1 영역과 관련된 입력을 수신하는 동작 및 상기 입력의 속성을 기반으로 상기 제2 컨텐츠의 출력 방식을 변경하는 동작을 포함할 수 있다. 이 외에도 명세서를 통해 파악되는 다양한 실시 예가 가능하다.

Description

화면 출력 방법 및 이를 지원하는 전자 장치{Method for Outputting Screen and Electronic Device supporting the same}
본 문서의 다양한 실시 예는 다양한 컨텐츠를 포함하는 화면을 출력하여 사용자에게 제공하는 방법 및 이를 지원하는 전자 장치에 관한 것이다.
스마트폰, 태블릿과 같은 전자 장치는 이미지 출력, 무선 인터넷, 게임 등 다양한 기능을 수행할 수 있다. 상기 전자 장치는 화면, 소리 등을 통해 다양한 정보를 사용자에게 제공할 수 있고, 사용자는 다양한 입력(예: 터치 입력, 스와이프 입력 등)을 통해 상기 기능을 실행하거나 제어할 수 있다.
또한, 전자 장치는 다양한 센서들을 포함하여, 전자 장치 주변 또는 사용자 주변의 정보(예: 주변 밝기, 전자 장치의 이동에 관한 정보, 사용자의 심박수 정보 등)을 인식하고, 인식된 정보를 기반으로 다양한 사용자 경험(UI, UX)을 제공할 수 있다.
상기와 같은 종래 기술에 화면 출력 방식은 하나의 화면에 하나의 컨텐츠 만을 표시하거나, 화면을 분할하여 멀티태스킹을 구현하는 경우라도 분할된 화면에 각각의 어플리케이션에 의한 뷰를 출력할 뿐이다.
또한, 종래 기술은 사용자의 주변 상황에 대한 고려 없이 기 정의된 설정에 의해서 심박, 기온, 습도, 자외선 지수 등과 같은 정보를 단순히 제공하는데 초점이 맞춰져 있어 화면상에 표시되는 컨텐츠에 대한 정보전달의 효과가 부족하다.
상기와 같은 문제점을 해결하기 위해, 본 문서의 다양한 실시 예들은 전자 장치(에: 휴대 기기)에 장착된 센서, 사용자의 설정 및 입력 방법 등 사용자의 주변 및 사용자의 상태 정보를 활용하여 사용자와 상호 작용하는 UI를 사용자에게 실시간으로 제공하고, 다양한 효과를 부여할 수 있다.
또한, 사용자 상호작용에 따라 특정 이미지에 블랜딩과 같은 이미지 변형 효과를 제공함으로써 사용자에게 사용자 상호작용에 따른 결과에 대응하는 피드백을 제공할 수 있다.
본 발명의 다양한 실시 예에 따른 화면 출력 방법은 상기 전자 장치의 디스플레이를 제1 영역 및 제2 영역으로 분할하는 동작, 상기 제1 영역에 제1 컨텐츠를 출력하고, 상기 제2 영역에 제2 컨텐츠를 출력하는 동작, 상기 제1 영역과 관련된 입력을 수신하는 동작 및 상기 입력의 속성을 기반으로 상기 제2 컨텐츠의 출력 방식을 변경하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 화면 출력 방법은 전자 기기에 장착된 센서, 사용자의 설정 및 입력 방법 등 사용자의 주변 및 사용자의 상태 정보를 활용하여 사용자와 상호 작용하는 UI를 사용자에게 실시간으로 제공하고, 다양한 효과를 부여함으로써 사용자에게 시인성과 가독성을 향상시킬 수 있으며, 지루하지 않은 사용자 경험을 제공할 수 있다.
도 1은 다양한 실시 예에 따른 네트워크 환경 내의 전자 장치이다.
도 2는 다양한 실시 예에 따른 화면 출력 방법을 나타내는 순서도이다.
도 3은 다양한 실시 예에 따른 제2 컨텐츠의 출력 방식의 변화를 나타내는 화면예시도이다.
도 4는 다양한 실시 예에 따른 이미지 조합 및 마스킹 과정을 나타낸다.
도 5는 다양한 실시 예에 따른 블러링에 의한 화면 출력 방법을 설명하는 화면 예시도이다.
도 6은 다양한 실시 예에 따른 정보 추가에 따른 화면 출력 방법에 따른 화면 예시도이다.
도 7은 다양한 실시 예에 따른 이미지 조합 방법을 나타내는 순서도이다.
도 8은 다양한 실시 예에 따른 카드형 UI의 예시도 이다.
도 9는 다양한 실시 예에 따른 화면 전환 예시도 이다.
도 10은 다양한 실시 예에 따른 폴딩 형태의 화면 전환 예시도 이다.
도 11은 다양한 실시 예에 따른 전자 장치의 블록도이다.
도 12는 다양한 실시 예에 따른 프로그램 모듈의 블록도이다.
이하, 본 문서의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 문서의 실시예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나", 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 문서에서 사용된 "제 1", "제 2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제 1 사용자 기기와 제 2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.
본 문서의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에 따르면, 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식형(예: implantable circuit) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에서, 전자 장치는 가전 제품(home appliance)일 수 있다. 가전 제품은, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션(navigation) 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자 장치 101(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine), 상점의 POS(point of sales), 또는 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예에 따르면, 전자 장치는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시 예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.
이하, 첨부 도면을 참조하여, 다양한 실시 예에 따른 전자 장치가 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 다양한 실시 예에 따른 네트워크 환경 내의 전자 장치이다.
도 1을 참조하여, 다양한 실시 예에서의, 네트워크 환경 100 내의 전자 장치 101가 기재된다. 전자 장치 101는 버스 110, 프로세서 120, 메모리 130, 입출력 인터페이스 150, 센서 모듈 155, 디스플레이 160, 통신 인터페이스 170, 그래픽 처리부 180 및 물리 엔진부 185를 포함할 수 있다. 어떤 실시 예에서는, 전자 장치 101는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다.
버스 110은, 예를 들면, 구성요소들 110-180을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 및/또는 데이터)을 전달하는 회로를 포함할 수 있다.
프로세서 120은, 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서 120은, 예를 들면, 전자 장치 101의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
다양한 실시 예에서, 프로세서 120은 입출력 인터페이스 150에서 수신한 사용자 입력 혹은 센서 모듈 155에서 수집한 센싱 정보 등에 따라 전자 장치 101의 기능을 제어할 수 있다. 예를 들어, 프로세서 120은 전자 장치 101 상태, 사용자의 상태, 혹은 전자 장치 101나 사용자와 관련한 주위 환경의 상태와 관련한 정보를 처리하기 위한 연산을 할 수 있고, 관련 정보를 메모리 130에 저장할 수 있다. 프로세서 120은 메모리 130에 저장된 정보(예: 사용자 관련 정보, 사용자 입력 정보 등)를 이용하여, 디스플레이 150을 통해 사용자에게 출력될 내용을 결정할 수 있다.
다양한 실시예에 따르면, 프로세서 120은 모션센서나 생체정보 센서등 센서 모듈 155를 통해 수신한 모션신호나 생체신호에서 전처리(예: 노이즈 제거, 세그멘테이션(segmentation), 신호 표준화, 특징추출 중 하나 이상)를 수행하고, 신호 분석(예: 인공지능, 결정트리(decision tree), 패턴인식, 사용자 활동 인식 중 하나 이상)을 통해 사용자의 건강 상태나 정서 상태, 움직임의 종류나 운동량을 결정할 수도 있다.
메모리 130은, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리 130은, 예를 들면, 전자 장치 101의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시 예에 따르면, 메모리 130은 소프트웨어 및/또는 프로그램 140을 저장할 수 있다. 프로그램 140은, 예를 들면, 커널 141, 미들웨어 143, 어플리케이션 프로그래밍 인터페이스(application programming interface(API)) 145, 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 147 등을 포함할 수 있다. 커널 141, 미들웨어 143, 또는 API 145의 적어도 일부는, 운영 시스템(operating system(OS))으로 지칭될 수 있다.
커널 141은, 예를 들면, 다른 프로그램들(예: 미들웨어 143, API 145, 또는 어플리케이션 프로그램 147)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스 110, 프로세서 120, 또는 메모리 130 등)을 제어 또는 관리할 수 있다. 또한, 커널 141은 미들웨어 143, API 145, 또는 어플리케이션 프로그램 147에서 전자 장치 101의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어 143는, 예를 들면, API 145 또는 어플리케이션 프로그램 147이 커널 141과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다.
또한, 미들웨어 143는 어플리케이션 프로그램 147으로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어 143는 어플리케이션 프로그램 147 중 적어도 하나에 전자 장치 101의 시스템 리소스(예: 버스 110, 프로세서 120, 또는 메모리 130 등)를 사용할 수 있는 우선 순위를 부여할 수 있다. 예컨대, 미들웨어 143는 상기 적어도 하나에 부여된 우선 순위에 따라 상기 하나 이상의 작업 요청들을 처리함으로써, 상기 하나 이상의 작업 요청들에 대한 스케쥴링 또는 로드 밸런싱 등을 수행할 수 있다.
API 145는, 예를 들면, 어플리케이션 147이 커널 141 또는 미들웨어 143에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
입출력 인터페이스 150은, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치 101의 다른 구성요소(들)에 전달할 수 있는 인터페이스의 역할을 할 수 있다. 또한, 입출력 인터페이스 150은 전자 장치 101의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다. 입출력 인터페이스 150은 사용자의 입력 행위(ex. 터치센서, 버튼, 키, 스타일러스 펜)에 의해서 입력되는 정보를 수신할 수 있다.
예를 들어, 입출력 인터페이스 150은 사용자가 이루고자 하는 건강관리 목표(예: 운동량, 체중감소, 운동종류별 운동횟수 중 하나 이상), 스케쥴, 전화번호 관리 등을 사용자로부터 제공받을 수 있다.
다양한 실시 예에 따르면, 입출력 인터페이스 150은 디스플레이 160을 통해 표시되는 하나 이상의 컨텐츠들(예: 웹 페이지, 혹은 문서)을 조회하기 위한 스크롤(또는 스와이프) 입력, 여러 아이템들을 표시하는 리스트(예: 뮤직 리스트, 비디오 리스트 등)의 스크롤이나 드래깅을 통한 조회 위치 변경, 가상의 페이지에서 일부만 디스플레이에 표시되는 경우 다른 일부를 조회하기 위한 조회 위치를 이동시키는 명령(예: 터치, flick, 드래깅, 3D 제스처 입력, 음성입력, 시선추적, 얼굴방향 추척 중 하나 이상), 여러 페이지나 카드, 대시보드 형태로 구성된 컨텐츠(예: 전자책, 삼성 S-Health 애플리케이션4.0 등)에서 다른 페이지나 카드, 대시보드를 조회하기 위한 사용자 인터페이스에 의한 입력 중 하나 이상을 수신할 수 있다.
다양한 실시 예에 따르면, 입출력 인터페이스 150은 터치센서, 키입력 감지센서, 스타일러스 펜 입력장치를 통한 입력신호(예: 입력위치, 입력제스처, 필기정보, 버튼 입력, 호버링 신호 입력)를 감지할 수 있다. 또한, 입출력 인터페이스 150은 충격감지 센서, 진동감지 센서(예: 가속도센서, 마이크, 압력센서)를 통해 충격, 진동, knock 행위 등을 감지할 수도 있다. 다양한 실시 예에 따르면, 전자 장치 101에 유무선 장치의 연결 감지와 같은 신호를 통신장치를 통해 인식할 수도 있다.
센서 모듈 155는 휴대 기기 상태, 사용자 상태, 혹은 사용자와 관련한 주위 환경의 상태를 측정하기 위한 하나 이상의 센서를 포함할 수 있다. 센서 모듈 155는 모션 센서, 환경 센서, 위치 센서, 생체정보 센서, 복합 센서 등을 포함할 수 있다.
모션센서는 기기나 사용자의 움직임, 자세(pose), 또는 지향 방향 중 하나 이상을 감지하는 모션센서로는 관성센서, 각/가속도계, 근접센서, 자이로스코프, 자기센서, 광센서, RGB 카메라, IR 카메라, kinect, 압력센서, 지향성 무선신호 감지기, IR LED, 터치감지 센서 중 하나 이상을 포함할 수 있다. 예컨대, 전자 장치 101의 모션센서를 통해 사용자의 포즈나 움직임을 감지하고, 전자 장치 101의 디스플레이 방향을 결정하여 이에 따라 디스플레이에 표시될 시각정보의 정렬방향(orientation)을 결정(예: 가로모드/세로모드, portrait mode/landscape mode)할 수 있다. 다른 예로, 전자 장치 101은 HMD나 디지털글로브에 모션센서나 시선 추적기를 탑재하여, 사용자의 머리 움직임, 시선, 손이나 팔의 제스처 입력을 감지할 수 있다.
환경센서는 기기나 사용자 주변의 환경상태를 측정할 수 있다. 환경센서는 조도센서, 가스감지 센서, 미세먼지 측정 센서, 기압센서, 습도계, 온도계, UV센서, 마이크, 방사능 계측기, 오존 측정기, 시간센서 중 하나 이상을 포함할 수 있다.
위치센서는 기기나 사용자의 위치를 판단하기 위하여 GPS/GNSS 센서, 무선통신 기반 무선 측위 센서(예: Cell-ID, ToA, TDoA, AoA 방식 센서 중 하나 이상), 실내 측위 센서(예: WiFi fingerprint, NFC, RFID, Pedometer, 카메라, 이미지 마커 인식기, 이미지 코드 인식기, 적외선센서, 초음파센서, UWB) 중 하나 이상을 포함할 수 있다. 또한, 위치 센서는 고도나 고도의 변화를 감지하기 위하여 기압계를 포함할 수 있다.
생체정보 센서는 사용자의 건강상태나 정서상태를 측정할 수 있다. 생체정보 센서는 pedometer, 혈압계, 혈당계, PPG(Photoplethysmography), ECG(Electrokardiogram), EMG, EEG, BVP(Blood Volume Pulse), 산소포화도 측정 센서(SPO2), 피부 수분 측정 센서(GSR: Galvanic Skin Response), 피부전도도(SC: Skin Conductivity), 비만측정기, 체온센서(Body temperature), 피부온도센서(Skin Temperature), 호흡측정기, 가스센서 등을 포함할 수 있다. 또한, 생체정보 센서는 사용자의 개인별 생체적 특징을 인식하기 위한 지문센서, 홍채인식센서, 얼굴인식기, 손모양 인식기, 손혈관 인식기, 음성인식기, 필기서명인식기가 있으며 카메라와 IR 카메라, 터치센서, 마이크 등을 포함할 수 있다.
생체정보 센서는 사용자의 혈압, 혈류, 심박수 (HRM, HRV), 체온, 호흡수, 산소포화도, 심폐음 감지, 혈당, 허리둘레, 키, 체중, 체지방, 칼로리소비량, 뇌파, 목소리, 피부저항, 근전도, 심전도, 걸음걸이, 초음파영상, 수면상태, 표정(얼굴), 동공확장, 눈깜박임 중 한 가지 이상을 측정하기 위한 기본 데이터(raw data)인 생체신호를 수집할 수 있다. 생체정보 센서, 센서허브 또는 프로세서 120은 이러한 생체신호를 분석하여 생체특성 정보를 추출할 수 있다. 예를 들어, 프로세서 120은 HRV(Heart Rate Variability) 센서를 통해 얻은 맥파 신호를 생체신호로 결정하고, 이를 분석하면 평균심박수, 심박분포도 등과 같은 1차적인 생체특성 정보를 얻을 수도 있고, 이러한 생체특성 정보를 가공하여 더 고차원적인 스트레스 상태, 혈관노화도와 같은 2차적인 생체특성 정보를 얻을 수 있다.
생체정보 센서는 수집한 사용자 생체신호를 단순 출력할 수도 있고, 프로세서 120을 통해 생체신호를 분석하여 생체특성 정보를 출력할 수도 있다. 따라서 생체정보 센서를 통해 수집한 생체신호는 센서와 결합된 자체 제어부, 생체정보 센서를 포함한 다양한 센서부의 신호를 수집하여 처리하는 센서허브, 또는 센서장치가 내장된 전자 장치 101의 프로세서 120에 전달되고 분석되어 생체특성 정보를 생산하는데 이용할 수 있다. 예를 들어 ECG센서가 내장된 휴대전화를 이용할 수도 있고, PPG센서가 내장된 손목시계에서는 각 기기에 내장된 생체정보 센서, 센서허브, 혹은 프로세서 120을 생체특성 정보를 생성하는데 이용할 수도 있다.
한 실시 예에 따르면 센서가 내장된 장치가 유선 혹은 무선 네트워크를 통해 통해 원격장치(예: 웨어러블 장치, 액세서리 장치, 스마트폰, 가전기기 등)나 서버에 생체신호를 전송한 후, 수신한 원격장치나 서버의 제어부에서 이를 가공하여 생체특성 정보를 생산할 수도 있다.
하나의 실시 예에 따르면, 센서가 내장된 장치는 1차적인 생체특성 정보를 만들고 이를 원격장치나 서버에 전달하면, 2차적인 생체특성 정보는 원격장치나 서버에서 추출할 수도 있다. 한 예로, 손목시계 장치에 내장된 HRV 센서가 수집한 생체신호는 손목시계 장치와 무선으로 연결된 스마트폰(호스트)에 전달되고, 스마트폰에서는 수신한 생체신호를 분석하여, 생체특성 정보를 추출한다. 생체특성 정보는 스마트폰에 표시하거나 혹은 손목시계 장치의 디스플레이로 표시할 수 있도록 무선으로 전송한다. 따라서 생체특성 정보는 스마트폰 혹은 손목시계 장치 중 하나 이상에 표시가 가능하다.
복합센서는 하나의 센서를 이용하여 두 가지 이상의 정보를 센싱할 수도 있다. 예컨대, 가속도 센서는 사용자의 모션과 걸음 수를 동시에 측정할 수 있다. 다른 예에서, PPG 센서는 심박수, 스트레스와 같은 생체정보 센서로 활용될 수도 있고, 수신한 광량을 기반으로 근접센서로 활용할 수도 있다. 또 다른 예에서 ECG 신호는 사용자의 심전도 분석을 통한 감정인식, 심박수, HRV(Heart rate variation)을 인식할 수도 있고, 사용자를 구분하는 인증을 위한 용도로도 사용할 수 있다.
다양한 실시 예에서, 센서 모듈 155는 전자 장치 101가 전원 on된 상태에서 상시 구동 될 수 있다. 또 다른 실시 예에서, 센서 모듈 155는 사용자의 입력(예: 키 입력, 버튼 입력, GUI 입력, 제스처 인식)에 따라 구동될 수 있다. 다양한 실시 예에 따르면, 상기 센서 모듈 155는 상기 전자 장치 101에 내장될 수도 있고, 다른 전자 장치에 내장되거나 혹은 외부 환경(예: 실내, 실외, 건물, 기지국 등)에 설치될 수도 있다.
디스플레이 160은, 예를 들면, 액정 디스플레이(liquid crystal display(LCD)), 발광 다이오드(light-emitting diode(LED)) 디스플레이, 유기 발광 다이오드(organic light-emitting diode(OLED)) 디스플레이, 또는 마이크로 전자기계 시스템(microelectromechanical systems(MEMS)) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이 160은, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 또는 심볼 등)을 표시할 수 있다. 디스플레이 160은, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다.
다양한 실시 예에 따르면, 디스플레이 160은 그래픽 처리부 180에서 처리된 내용을 표시하여, 사용자가 인식하도록 할 수 있다.
전자 장치 101은 디스플레이 160, 오디오장치(미도시)와 같은 출력장치를 통해 이미지, 소리, 진동을 통해서 사용자에게 출력 정보(예: 애니메이션, 오디오, 음성, 촉각 피드백(tactile feedback), 힘 피드백(force feedback))를 제공할 수도 있다.
통신 인터페이스 170은, 예를 들면, 전자 장치 101와 외부 장치(예: 제 1 외부 전자 장치 102, 제 2 외부 전자 장치 104, 또는 서버 106) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스 170은 무선 통신 또는 유선 통신을 통해서 네트워크 162에 연결되어 외부 장치(예: 제 2 외부 전자 장치 104 또는 서버 106)와 통신할 수 있다.
무선 통신은, 예를 들면, 셀룰러 통신 프로토콜로서, 예를 들면, LTE(long-term evolution), LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용할 수 있다. 또한, 무선 통신은, 예를 들면, 근거리 통신 164을 포함할 수 있다. 근거리 통신 164은, 예를 들면, WiFi(wireless fidelity), 블루투스(Bluetooth), NFC(near field communication), 또는 GNSS(global navigation satellite system) 등 중 적어도 하나를 포함할 수 있다. GNSS는 사용 지역 또는 대역폭 등에 따라, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo, the European global satellite-based navigation system 중 적어도 하나를 포함할 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 혼용되어 사용(interchangeably used)될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232, 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크 162는 통신 네트워크(telecommunications network), 예를 들면, 컴퓨터 네트워크(computer network)(예: LAN 또는 WAN), 인터넷, 또는 전화 망(telephone network) 중 적어도 하나를 포함할 수 있다.
제 1 및 제 2 외부 전자 장치 102, 104 각각은 전자 장치 101와 동일한 또는 다른 종류의 장치일 수 있다. 한 실시 예에 따르면, 서버 106는 하나 또는 그 이상의 서버들의 그룹을 포함할 수 있다. 다양한 실시 예에 따르면, 전자 장치 101에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치 102,104, 또는 서버 106에서 실행될 수 있다. 한 실시 예에 따르면, 전자 장치 101가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치 101는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치 102, 104, 또는 서버 106)에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치 102, 104, 또는 서버 106)는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치 101로 전달할 수 있다. 전자 장치 101는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
그래픽 처리부 180은 디스플레이 160의 출력과 관련된 연산을 수행할 수 있다. 도 1에서는, 그래픽 처리부 180와 프로세서 120과 분리된 경우를 예시적으로 도시하였으나, 이에 한정되는 것은 아니다. 그래픽 처리부 180의 적어도 일부는 프로세서 120에 포함되는 형태로 구현될 수도 있다.
다양한 실시 예에 따르면, 그래픽 처리부 180은 렌더러부와 애니메이션부 중 적어도 하나 이상을 포함할 수 있다. 렌더러부는 디스플레이에 결과물을 실질적으로 제공할 수 있다. 예컨대, 생성한 3D 그래픽을 디스플레이에 표시하기 위하여, 디스플레이의 속성(예: 해상도, refresh rate, 컬러모델 등)에 맞추어 2D 그래픽으로 변환하거나 원본 이미지로부터 디스플레이에 표시할 영역만 생성하여 디스플레이 160(예: 디스플레이 버퍼)에 전달할 수도 있다.
애니메이션부는 디스플레이 160에 제공되는 객체에 효과를 부여하기 위한 기능을 담당한다. 하나의 실시 예에 따르면, 센서 모듈 155에서 측정된 센서 정보의 통계적인 값(ex. 최대, 최소값, 평균값, 중간값, 빈도수, 분산, 표준편차 등)에 기반하여 해당 정보를 제공하기 위한 UI의 변화 비율, 변화 범위, 변화 속도, 변화 효과 등을 생성하기 위한 기능을 담당할 수 있다.
하나의 실시 예에 따르면, 애니메이션부는 객체 변형을 위한 속성을 계산할 수 있다. 객체 변형을 위한 속성은 위치속성(Top, Left, Bottom), 크기속성(Width, Height), 박스속성(Margin, Padding), 테두리속성(Border-Width, Border-Radius, Border-color), 색상속성(Color, Background-Color), 투명도속성(Opacity), 변환속성(Transform) 등 중 적어도 하나 이상을 포함할 수 있다. 하나의 실시 예에 따르면, 애니메이션부는 물리 엔진부 185와 연계하여 동작할 수 있다.
물리 엔진부 185는 객체가 휴대기기 화면에 제공될 때, 객체의 이동 경로에 따른 물리 연산량을 계산하는 기능을 수행할 수 있다. 물리 엔진부 185는 중력, 속도, 가속도, 마찰력, 인력(引力), 탄성력 등의 물리량 중 적어도 하나 이상을 포함하여 연산할 수 있다. 도 1에서는 물리 엔진부 185가 그래픽 처리부 180과 별개로 형성된 경우를 도시하였으나, 이에 한정되는 것은 아니다. 물리 엔진부 185는 프로세서 120 또는 그래픽 처리부 180에 포함되는 형태로 구현될 수도 있다.
도 2는 다양한 실시 예에 따른 화면 출력 방법을 나타내는 순서도이다.
도 2를 참조하면, 동작 210에서, 그래픽 처리부 180은 전자 장치 101의 디스플레이 160을 지정된 개수의 복수의 영역들로 분할할 수 있다. 각각의 분할된 영역은 서로 다른 컨텐츠를 출력하거나, 서로 연관된 컨텐츠를 출력하도록 설정될 수 있다. 이하에서는 그래픽 처리부 180이 디스플레이 160을 2개의 영역(제1 영역 및 제2 영역)으로 분할하는 경우를 중심으로 논의하지만, 이에 한정되는 것은 아니다.
제1 영역은 사용자 인터페이스를 이용한 입력에 의해 최소 하나 이상의 동작(예: 스크롤이나 페이지 이동)이 직접적으로 수행되는 영역일 수 있다.
또한, 제1 영역은 제1 컨텐츠(예: 리스트, 지도, 문서, SNS 피드)의 최소 일부를 표시하는 영역일 수 있고, 제2 영역은 제2 컨텐츠(예: 이미지나 비디오)의 최소 일부를 표시하는 영역일 수 있다.
일 실시 예에 따르면, 제2 영역은 제1 영역과 인접하여 배치되거나, 오버레이되어 배치될 수 있다. 오버레이 되는 경우, 제2 컨텐츠와 제1 컨텐츠 중 제2 영역에서 겹쳐지는 부분의 컨텐츠들은 컨벌루션(convolution) 연산에 의해 조합될 수도 있다.
다양한 실시 예에 따르면, 그래픽 처리부 180은 제1 영역 및 제2 영역의 위치와 관련된 속성(예: 크기, 위치, 비율, 형상)을 설정할 수 있다.
그래픽 처리부 180은 기본 설정 값으로, 제1 영역 및 제2 영역의 크기와 최초 위치를 결정할 수 있다. 예를 들어, 그래픽 처리부 180은 지정된 리스트가 표시될 때, 상기 리스트의 시작 지점을 제1 영역에 표시하고, 제2 영역의 위치기반 속성은 기본 값으로 설정할 수 있다. 다른 예를 들어, 그래픽 처리부 180은 상기 리스트의 조회 종료(또는 일시정지) 지점과 관련된 정보, 제2 영역 위치와 관련된 속성 정보를 저장할 수 있다. 이후 다시 리스트를 조회할 때, 그래픽 처리부 180은 저장된 정보를 이용하여 제1 영역 및 제2 영역의 크기와 위치를 복원할 수 있다.
그래픽 처리부 180은 사용자 입력에 의해 제1 영역 및 제2 영역의 위치를 설정할 수 있다. 사용자는 화면상에서 제2 영역이 설정될 크기 및 위치를 결정할 수 있다. 그래픽 처리부 180은 여러 개의 템플릿 후보 중에서 사용자가 위치와 크기를 선택하도록 하는 화면을 표시할 수 있다. 또한, 그래픽 처리부 180은 사용자 인터페이스에 의해 사용자가 직접 위치와 크기를 설정(예: 모양 선택, 크기/위치 조절 등)하도록 할 수 있다.
그래픽 처리부 180은 제1 영역과 제2 영역의 컨텐츠에 기반하여 자동으로 각 영역의 위치와 크기를 설정할 수 있다. 예를 들어, 그래픽 처리부 180은 표시할 컨텐츠의 크기, 비율, 위치와 디스플레이 표시영역의 크기, 비율 등을 반영하여, 제1 영역 또는 제2 영역의 위치 또는 크기를 결정할 수 있다. 다른 예를 들어, 그래픽 처리부 180은 제2 영역에 표시될 컨텐츠의 속성에 대응하여 크기와 비율을 결정하거나, 제1 영역에 표시될 컨텐츠의 구성요소들 중 가장 큰 구성요소를 표시할 수 있도록 제2 영역을 설정할 수 있다. 다른 예를 들어, 그래픽 처리부 180은 제1 영역에 표시되는 문서에서 문서 내의 가장 큰 이미지가 제2 영역에 표시될 수 있도록 제2 영역의 위치 기반 속성을 설정하여 표시할 수 있다. 다른 예를 들어, 현재 위치에서 사용자 입력에 의해 스크롤이 발생하여 소정 위치까지 이동하였을 때, 제1 컨텐츠의 리스트 항목들 중 가장 크기가 큰 항목이 제2 영역에 표시될 수 있도록, 현재 위치와 상기 소정 위치를 기반으로 제2 영역의 크기와 비율, 위치 중 하나 이상을 설정할 수 있다.
동작 220에서, 그래픽 처리부 180은 분할된 제1 영역에 제1 컨텐츠를 출력하고, 제2 영역에 제2 컨텐츠를 출력할 수 있다. 다양한 실시 예에서, 상기 제1 컨텐츠 및 제2 컨텐츠는 서로 다른 컨텐츠일 수 있다. 예를 들어, 제1 컨텐츠는 날씨 앱에 의한 현재의 날씨를 알려주는 화면일 수 있고, 제2 컨텐츠는 인터넷 브라우저를 통한 뉴스 검색 화면일 수 있다.
제1 영역에 표시되는 제1 컨텐츠는 사용자 입력에 따라 최소 일부의 영역이 스크롤이나 페이지 이동이 가능한, 리스트, grid view, 카드, 대시보드, Tile 중 하나 이상을 포함할 수 있다.
일 실시 예에 따르면, SNS 애플리케이션(Face book, Twitter), 뉴스 기사(Flipboard TM), 이미지 리스트, 앨범리스트, 음악리스트, Thumbnail 리스트, S-Health 4.0, 지도 이미지 등과 같은 애플리케이션이 제1 영역에 표시될 수 있으며, 사용자 입력에 의해 제1 영역에 표시되는 부분이 달라질 수 있다. 예컨대, 리스트 앱의 경우, 리스트의 전체 항목들(items) 중에서 스크롤, 혹은 flick에 의해서 제1 영역에 표시되는 항목이 달라질 수도 있고, 지도의 경우 드래깅이나 flick에 의해 제1 영역을 통해 표시되는 지도 부분이 달라질 수도 있다.
제2 영역은 제2 컨텐츠의 최소 일부가 표시되는 영역으로서, 제2 컨텐츠는 이미지, 문자, 기호 중 최소 한 가지 이상을 포함할 수 있다. 제1 영역과 관련한 사용자 입력에 의해 제2 영역에 표시된 컨텐츠도 최소 일부가 변환되어 표시될 수 있다.
다양한 실시 예에 따르면, 제2 영역에 표시되는 제2 컨텐츠는 디폴트 이미지이거나 사용자에 의해 선택된 이미지일 수 있다. 또한, 상기 제2 컨텐츠는 제1 영역에 배치된 컨텐츠 혹은 배치될 후보 컨텐츠들에 기반하여 자동으로 설정될 수도 있다. 예를 들어, 1) 제2 컨텐츠는 현재 제1 영역에 표시되는 컨텐츠 혹은 이와 인접하여 배치될 컨텐츠, 2)제1 영역에 표시된 컨텐츠 구성요소로부터 상,하,좌,우에 인접한 구성 요소(이미지, 문서 단락 등), 3) 특정 시간(예: 주단위, 일단위, 월단위)단위 이벤트에 기반한 대표 이미지 혹은 검색한 연관 이미지, 4) 여행 직후 해당 월 동안 촬영지의 사진 이미지 혹은 여행 지역과 관련한 대표 이미지를 검색하여 추천된 이미지, 5) 현재 시간(아침, 낮, 저녁, 밤 관련)이나 요일, 계절 등과 관련한 이미지, 6) 특정 기념일의 경우, 해당 기념일에 있었던 이전의 이벤트 관련정보, 7) 관련 앱에 마지막에 업로드된 이미지, 이전 컨텐츠 소비형태에 기반한 이미지 (조회한 이미지, 비디오의 pause 이미지, 음악의 앨범이미지_ID3Tag 등으로부터 추출된 이미지), 8) 제1 영역에 배치된 컨텐츠들 중에서 가장 조회가 많은 이미지, 9) 제1 영역 컨텐츠들 관련 키워드에 기반한 대표 키워드를 선정하거나 분석한 내용, 10) 제1 영역 컨텐츠 중 사용자 입력에 의해 지정된 컨텐츠와 관련한 이미지, 11) 제1 영역의 여러 이미지 중 선택된(터치유지 또는 호버링) 특정 이미지, 12) 여행지 이미지를 선택한 경우 해당 여행지 관련 이미지, 13) 검색엔진을 이용한 로컬 혹은 네트워크상의 관련 이미지 혹은 앨범이미지, 14) 메타데이터(Exif 태그, ID3Tag 등을 이용한 장소, 키워드 등), 제목 등을 검색어 이용한 이미지 등일 수 있다. 제2 컨텐츠는 검색 결과에 따라 랜덤하게 설정되거나 가장 많이 조회한 이미지로 설정될 수 있다.
동작 230에서, 그래픽 처리부 180은 제1 영역과 관련된 입력을 수신할 수 있다. 상기 입력은 사용자에 의한 입력(예: 스와이프 동작, 터치 동작 등) 또는 전자 장치 101에 포함된 센서 모듈 155를 통해 수집한 정보에 대응하는 입력을 포함할 수 있다.
다양한 실시 예에서, 상기 입력은 제1 영역 혹은 제2 영역 모두에서 발생할 수 있으며, 이에 따라 제1 영역에서 조회되는 제1 컨텐츠의 변화(예: 스크롤, 페이지 이동에 의한 조회되는 영역의 변화)가 발생할 수도 있다. 일 실시 예에 따르면, 상기 입력은 제1 영역에서 발생한 것에 대해서만 유효할 수도 있다. 다른 실시 예에 따르면, 상기 입력은 제2 영역에서 발생한 것에 대해서만 유효할 수도 있다.
상기 입력은 제1 영역 혹은 제2 영역 또는 다른 영역에서 소정의 사용자 인터페이스를 통해 입력될 수도 있다. 입력을 위한 인터페이스의 하나인 GUI로는 스크롤 바, OSD, 슬라이더 바 등이 있고, 하드웨어 장치로는 버튼, 키 등이 있을 수 있다. 또 다른 예로 상기 입력은 시선추적이나 음성입력, 모센센서에 의한 제스처나 포즈, 혹은 움직임 중 하나 이상을 활용할 수도 있다.
사용자의 생체정보(예: 심박, 스트레스, 감정, 운동량, 체온)를 기반으로 제1 영역에 표시되는 컨텐츠 변화를 발생시킬 수도 있다. 한 실시 예에 따르면, 스마트 워치나 스마트 글래스 등의 웨어러블 기기를 통해 사용자의 생체정보를 감지하고, 이에 기반하여 제1 영역에 표시되는 컨텐츠의 속성(길이, 크기, 내용, 페이지, 색상 등)을 변화시킬 수도 있다. 예컨대, 헬스 애플리케이션이 제1 영역에 표시되고, 이를 구성하는 심박 타일, 운동량 타일, nutrition 타일 등이 리스트 형태로 구성되어 있고, 이 중 일부가 표시되어 있을 때, 이 중에서 새로 업데이트 되거나 상대적으로 중요한 정보가 있는 타일이 표시될 수 있도록 자동으로 스크롤되거나 페이지 전환될 수도 있다.
동작 240에서, 그래픽 처리부 180은 상기 입력을 기반으로 제2 영역에서의 제2 컨텐츠의 출력 방식을 변경할 수 있다.
제2 컨텐츠의 출력 방식은 상기 입력에 대응하여, 증감되거나 그 레벨이 결정될 수 있다. 제2 컨텐츠의 출력 방식은 위치기반 속성(예: 크기속성, 위치속성, 형상속성, 기하학적 처리 속성)), 또는 이미지 변환 속성(이미지 변형(filter) 속성, 이미지 조합(composite) 속성, 또는 마스킹 관련 정보) 중 하나 이상을 포함할 수 있다.
다양한 실시 예에 따르면, 제2 컨텐츠의 출력 방식은 날씨속성, 테마속성의 변경을 포함할 수 있다. 이에 따르면 날씨 정보 혹은 사용자 테마 정보 혹은 뷰 영역 속성 정보를 기반으로 이미지 변형, 이미지 조합 혹은 마스킹 연산 중 하나 이상을 수행할 수 있다.
예를 들어, 사용자는 제1 영역에서 아래에서 위로 스와이프 동작을 통해 인터넷 기사 또는 페이스북 화면을 이동(스크롤)시키는 입력을 발생시킬 수 있다.
그래픽 처리부 180은 제1 영역에 상기 스와이프 입력이 발생한 경우, 제1 영역의 제1 컨텐츠(예: SNS, 인터넷 기사 등)를 스와이프 입력의 방향 또는 속도에 따라 아래쪽으로 스크롤 할 수 있다.
그래픽 처리부 180은 상기 스와이프 입력을 기반으로 제2 영역에 출력되는 제2 컨텐츠(예: 배경화면, 주소록 등)의 출력 방식을 변경할 수 있다. 그래픽 처리부 180은 스와이프 입력에 따라 제2 영역 전체를 점차적으로 흐려지게 하거나, 제1 영역의 전체 크기가 상하 방향으로 작아지도록 할 수 있다.
다른 예를 들어, 그래픽 처리부 180은 스와이프 입력에 따라 제2 영역의 크기가 상하 방향으로 점차 줄어들거나, 제1 영역과 제2 영역의 경계 라인이 제2 영역 방향으로 이동하여, 제1 영역은 점차적으로 커지고, 제2 영역은 점차적으로 작아지도록 할 수 있다.
그래픽 처리부 180은 화면상에서 사용자가 보고 싶거나 강조하고 영역(예: 제1 영역)을 선명하게 하고, 사용자의 관심 영역이 아닌 영역(예: 제2 영역)을 축소하거나 보이지 않도록 처리할 수 있다.
도 3은 다양한 실시 예에 따른 제2 컨텐츠의 출력 방식의 변화를 나타내는 예시도이다. 도 3에서는 제2 영역의 상하 방향 크기가 변경되는 경우를 예시적으로 도시하였으나, 이에 한정되는 것은 아니다.
도 3을 참조하면, 화면 301 내지 304는 각각 복수의 영역들로 분할될 수 있다. 각각 영역들은 서로 다른 컨텐츠를 출력할 수 있다. 상기 컨텐츠는 서로 독립된 별도의 어플리케이션에 의한 화면일 수도 있고, 하나의 어플리케이션에서 출력하는 서로 다른 컨텐츠일 수도 있다.
화면 301 내지 304는 제1 영역 310이 제2 영역 320의 하단에 배치되고, 제1 영역 310에 사용자의 스와이프 입력이 발생하는 경우를 예시적으로 도시하였으나, 이에 한정되는 것은 아니다.
화면 301에서, 사용자는 제1 입력 330a를 제1 영역 310에 발생시킬 수 있다. 그래픽 처리부 180은 제1 입력 330a의 속성(예: 입력 방향 - 화면 아래에서 위 방향, 입력 속도- 느림/보통/빠름 중 보통, 입력 길이- 스와이프 입력의 시작점에서 종료 지점까지의 거리 등)을 확인할 수 있다.
화면 302에서, 제1 영역 310에 표시되는 제1 컨텐츠(예: 인터넷 기사, 페이스북 화면 등)는 제1 입력 330a에 의해 아랫쪽으로 이동(스크롤)될 수 있다. 제2 영역 320은 제1 입력 330a에 의해 상하 방향의 크기가 줄어들 수 있다.
사용자가 현재 관심을 가지고 있거나 강조하는 영역(예: 제1 영역 310)에 대해서는 전체 화면에서 차지하는 비중이 점차적으로 늘어날 수 있고, 사용자가 현재 관심을 가지고 있지 않은 영역(예: 제2 영역 320)은 크기가 점차적으로 줄어들 수 있다.
화면 303에서, 사용자가 제2 입력 330b를 발생시키는 경우, 그래픽 처리부 180은 제2 입력 330b의 속성을 기반으로 제2 영역을 화면 302보다 더 축소할 수 있다.
화면 304에서, 사용자가 제3 입력 330c를 발생시키는 경우, 그래픽 처리부 180은 제3 입력 330c의 속성을 기반으로 제2 영역 320을 화면 303보다 더 축소할 수 있다. 이 경우, 제2 영역 320은 최소 상태(예: 라인 형태)로 변경될 수 있고, 사용자가 제1 영역 310을 추가적으로 스와이프 하더라도 최소 상태를 유지할 수 있다. 다양한 실시 예에서, 제2 영역 320이 최소화된 상태에서, 사용자가 제2 영역 320을 별도로 터치하는 경우 제2 영역 320은 지정된 크기로 확장될 수 있다.
다양한 실시 예에서, 사용자가 스와이프 동작을 취소하거나, 반대 방향(위에서 아래 방향)으로 스와이프 동작을 발생시키는 경우, 제2 영역 320은 기존의 상태로 돌아갈 수 있다.
다양한 실시 예에 따르면, 사용자 입력에 의해서 변화한 제1 컨텐츠의 변화량(예: 거리, 조회된 영역의 비율 등)에 따라 제2 영역 320의 위치 속성(예: 크기, 조회범위, 표시 위치)이 변경될 수도 있다. 예컨대, 제1 영역에 표시되는 컨텐츠의 위치기반 정보(예: 현재 조회위치의 전체 컨텐츠 길이상 비율, 현재 조회 위치의 제1 컨텐츠 시작점으로부터의 거리 등)를 통해 이미지 위치 속성의 변화량을 설정할 수 있다. 화면 301에서, 리스트의 초기 상태에서 제2 영역 320은 소정의 크기와 위치에 기반하여 설정될 수 있다. 화면 302 내지 304에서, 사용자의 입력(예: 스크롤, 드래깅, flick) 또는 제1 컨텐츠의 변화(사용자 입력에 대응하여 변화)에 따라서 제2 영역의 크기와 위치가 변화할 수 있다.
일 실시 예에 따르면, 제2 영역의 크기는 제1 컨텐츠의 시작 위치나 끝 위치에 따라 최대 혹은 최소로 설정되고, 제1 컨텐츠 조회 위치에 따라 제2 영역 320 혹은 제2 영역 320의 컨텐츠의 크기가 조절될 수 있다. 예컨대, 화면 301과 같이, 컨텐츠의 초기 위치(제1 컨텐츠의 top 부분)이 조회되는 경우, 제2 영역 320이 최대로 설정되고, 제2 영역 320을 통해 표시되는 제2 컨텐츠의 범위도 전체일 수 있다. 또한, 만약 제1 컨텐츠의 최하단이 제1 영역 310에 표시되는 경우, 제2 영역 320의 크기는 최소로 설정될 수 있다. 이에 따라 사용자의 입력에 의해 스크롤이 이뤄지면, 제1 영역 310에 표시되는 제1 컨텐츠 전체 대비 비율을 이용하여, 제2 영역의 최대 및 최소 크기가 결정될 수 있다. 따라서 위로 스크롤이 이뤄질 수록 제2 영역 320의 크기가 작아지고, 아래로 스크롤 할수록 제2 영역 320의 크기가 커질 수 있다. 그러므로 제2 영역의 크기에 따라 사용자는 현재 제1 컨텐츠의 상대적 위치를 쉽게 판별할 수 있다. 예컨대, 사용자 입력에 따라, 제2 영역의 컨텐츠의 일부(예:“Today”)의 크기가 변화할 수도 있으며, 추가적으로 제2 컨텐츠의 다른 부분의 크기는 유지될 수도 있다.
하나의 실시 예에 따르면, 제2 영역 320을 통한 제2 컨텐츠의 표시 범위는 사용자 입력에 의한 제1 영역 310의 컨텐츠 표시 영역에 따라 변화(예: 부분영역만 표시 혹은 일부 확대/축소)할 수 있다. 예컨대, 화면 301에서, 제2 영역 320의 컨텐츠인 이미지의 모든 영역이 표시되나, 스크롤이 발생함에 따라 제1 영역 310을 통해 제1 컨텐츠의 표시 영역이 달라지면, 화면 302 내지 304와 같이, 점차 이미지의 하단부로 표시 영역이 좁아지게 된다. 다른 실시 예에 따르면, 제2 영역 320의 크기는 변화하지 않고, 사용자 입력에 따른 제1 영역 310의 제어 결과에 따라 제2 컨텐츠의 일부가 확대/축소되어 제2 영역 320이 채워질 수도 있다. 이러한 확대/축소 동작은 비율을 유지하여 제2 컨텐츠 전체가 축소/확대될 수도 있고, 비율과 관계없이 일부 영역만 크롭(crop)되어 표시될 수도 있다.
하나의 실시 예에 따르면, 그래픽 처리부 180은 제1 컨텐츠의 구성 요소(예: 이미지, 리스트 항목 등) 중 가장 큰 구성 요소가 제1 영역 320에 표시될 수 있도록, 제2 영역 320의 최대 및 최소 영역을 설정할 수도 있다. 예컨대, 그래픽 처리부 180은 제1 컨텐츠의 가장 큰 구성요소가 제1 영역에 표시될 수 있도록, 제1 컨텐츠의 시작부와 마지막 부에서 표시되는 제2 영역 320의 최대 및 최소 크기를 지정할 수 있다.
다양한 실시 예에 따르면, 제1 컨텐츠에 새로운 컨텐츠가 추가되면서, 제1 영역의 컨텐츠 표시 영역이 달라지며, 이에 따라 제2 영역을 통한 제2 컨텐츠의 표시 범위, 제2 영역의 크기, 혹은 제2 컨텐츠의 크기가 변화될 수 있다. 예컨대, 사용자가 운동을 하는 경우, 이에 대한 사용자의 움직임과 이동 거리를 생체센서, 모션센서, 위치센서, 환경센서 중 하나 이상을 이용하여 정보를 수집하고, 그래픽 처리부 180은 제1 컨텐츠로서 운동 정보(예: 심박수, 운동시간, 운동경로, 이동거리, 운동량 중 하나 이상)를 계산하여 표시할 수 있다. 이 때, 제1 컨텐츠로서 운동 정보의 이력이 추가될 수 있으므로, 이에 따라 제1 컨텐츠의 양이 증가하며, 제1 영역에 표시되는 제1 컨텐츠 표시 영역이 달라질 수 있으며, 이에 기반하여 제2 영역의 크기나 표시되는 제2 컨텐츠의 표시 범위 혹은 제2 컨텐츠 중 최소 일부의 크기가 변화할 수 있다.
도 4는 다양한 실시 예에 따른 이미지 조합 및 마스킹 과정을 나타낸다.
도 4를 참조하면, 그래픽 처리부 180은 제1 영역에서의 사용자의 입력에 따라 원본 이미지 410을 변환할 수 있다. 예를 들어, 그라데이션 효과를 원본 이미지 410에 입히기 위해, 그래픽 처리부 180은 원본 이미지(Source Color) 410을 선택하고, 이에 소정의 투명도 정보(예: 투명도 정보가 매핑된 그라데이션 이미지 420)를 선택한 후, 이들간에 이미지 조합 연산을 수행하여, 제1 연산 이미지 450을 얻을 수 있다.
다양한 실시 예에 따르면, 그래픽 처리부 180은 목적 이미지(Destination color) 340에 마스킹 효과를 제공하기 위하여 소정의 크로마키 정보(예: 도면의 one 440)와 목적 이미지 340간에 이미지 조합 연산 혹은 마스킹 연산을 수행하여, 제2 연산 이미지 460을 얻을 수 있다. 예컨대, 제2 연산 이미지 460에서, 마름모 부분은 불투명, 마름모 형상 사이의 흑색부분은 투명 처리될 수 있다.
다양한 실시 예에 따라, 이미지 470은 그라데이션 효과가 부가된 제1 연산 이미지 440(원본 이미지 410이 처리된 이미지)와 마스킹 정보가 부가된 제2 연산 이미지 460(목적 이미지430이 처리된 이미지)를 조합한 결과를 보여준다.
도 4에서는 마스킹 기법을 도시하였으나, 이는 예시적인 것으로 이에 한정되는 것은 아니다. 다양한 이미지 처리를 통해 제2 영역의 출력 방식이 변경될 수 있다.
제2 영역에는 블랜딩(blending), 기하학적 처리 혹은 물리속성에 의한 처리를 위해 다음과 같은 기법(기법 1) 내지 5))들 중 하나 이상이 적용될 수 있으며, 각 기법 별로 소정의 속성(예: 적용할 기법 및 효과 강도(effect strength))을 부여할 수 있다.
1) 이미지 변형(Filter): Filter 적용할 화면의 View 영역에 대한 각 Pixel별 색상/투명도를 변환하는 방식. 이미지 변형(Filter)은 블러링(blurring) 효과를 적용하기 위하여 저주파 통과 필터(Low-pass spatial filter)를 이용하거나 평균필터(average filter), 가중 평균 필터(Weighted average filter)를 이용할 수 있다.
예컨대, 그래픽 처리부 180은 가중 평균 필터의 하나인 Gaussian Smoothing Filter 기법을 이용할 수도 있다. 일 실시 예에 따르면, 그래픽 처리부 180은 흐림 정보(blurring level)을 조절하기 위하여 convolution filter에 사용되는 마스크의 크기를 달리 적용할 수 있다. 예컨대, 그래픽 처리부 180은 흐림 정보를 높이려면, 상대적으로 마스크의 크기를 크게 설정하고, 흐림 정도를 적게 적용하려면 상대적으로 마스크의 크기를 작게 설정할 수도 있다.
다른 예를 들어, 그래픽 처리부 180은 Sharpening 효과를 적용하기 위하여 고주파 통과 필터(High-pass filter), 고주파 지원 필터(High-boost filter)를 사용하여 영상의 저주파 부분을 제거하고, 이미지 경계부분과 같이, 이미지 상에서 변화가 급격히 발생하는 부분을 보존할 수 있다.
다른 예를 들어, Noise 필터는 노이즈 감축 혹은 노이즈 추가를 위해 사용될 수 있다. 그래픽 처리부 180은 노이즈 감축(noise reduction)의 경우 임펄스 노이즈(impulse noise 혹은 salt-and-pepper noise) 제거시 Median filter를 이용한 연산을 수행할 수 있다. 그래픽 처리부 180은 Gaussian noise 제거를 위해서 저주파 통과 필터(low-pass filter)를 이용할 수도 있다. 그래픽 처리부 180은 가우시안 노이즈와 유니폼 노이즈(uniform noise) 제거를 위해 중간점 필터(Midpoint filter)를 적용할 수 있다.
그래픽 처리부 180은 반대로 원본 이미지에 노이즈를 추가할 수도 있다. 한 실시 예에 따르면, 그래픽 처리부 180은 이미지 픽셀들에 대해 소정의 비율이나 확률로 노이즈(예: salt-and-pepper 픽셀)를 생성시킬 수 있다. 다른 실시 예에 따르면, 어떤 이미지에 노이즈를 추가하기 위하여 소정의 background grain image와 상기 이미지를 혼합하여 composite image를 생성할 수도 있다.
다른 예를 들어, 그래픽 처리부 180은 Colorizing을 통해 원본 이미지에 대해 color component(예: RGB color 모델의red, green, blue)의 비율이나 레벨을 조정함으로써 특정한 효과를 입힐 수 있다. 그래픽 처리부 180은 투명도를 조절하여, 원본 이미지에 대해 RGBA(Red, Green, Blue, Alpha) 중 alpha component의 비율이나 레벨을 조정함으로써 반투명 혹은 안개 효과를 적용하거나, 밝기, 채도(saturation) 조절 등을 조절할 수 있다.
2) 이미지 조합(Composite): 그래픽 처리부 180은 사용자 인터페이스에 의한 입력(예: Flick이나 드래깅에 의한 Scroll 이동 및 값)에 따라 Filter를 적용할 영역 안의 다수개의 이미지들을 각각 Pixel 단위로 혼합 연산 수행하여 혼합이미지(composition image)를 결과로 생성할 수 있다. 예컨대, 그래픽 처리부 180은 두 개 이상의 이미지에 대해 가산혼합(add), 감산혼합(subtract), Multiply, And, Or, XOR, 스크리닝 등의 영상처리를 수행할 수도 있다.
3) Masking 연산: 그래픽 처리부 180은 모폴로지 기법 (Morphology)을 이용하여 침식(Erosion) 연산, 팽창(Dilation) 연산, 열림(Opening) 연산, 닫힘(Closing) 연산 중 하나 이상을 활용할 수도 있다. 그래픽 처리부 180은 에지검출(edge detection)을 수행할 수도 있다. 다양한 실시 예에 따르면, 그래픽 처리부 180은 크로마키 기법을 통해 소정의 영역만 표시되거나 보이지 않도록 처리할 수도 있다. 예컨대, 사용자의 Scroll 이동 값에 따라 적용할 영역의 가로와 세로 비율만큼 차등 적용하거나 영역별로 상이한 마스킹 연산을 수행함으로써 다양한 영상처리 효과를 제공할 수 있다. 마스킹 연산은 이미지 변형이나 이미지 조합을 위한 기법으로도 활용할 수 있다.
4) 기하학적 처리: 그래픽 처리부 180은 사용자 인터페이스에 의한 입력(예: Flick이나 드래깅에 의한Scroll 이동 및 값)에 따라 각 픽셀의 배열을 변화시킬 수 있다. 예컨대, 그래픽 처리부 180은 이미지 크기(scaling), 회전(Rotation), 이동(Translation) 중 하나 이상을 활용할 수도 있다. 다른 실시 예에 따르면, 형상 자체를 변화할 수도 있는데 모핑(morphing) 기법이나 워핑(warping) 기법을 활용할 수도 있다.
5) 물리엔진에 의한 영상처리 기법: 물리 엔진부 185는 객체가 전자 장치 101의 화면에 제공될 때, 객체의 이동 경로에 따른 물리 연산량을 계산하는 기능을 수행할 수 있다.이때 연산되는 물리량은 중력, 속도, 가속도, 마찰력, 인력(引力), 탄성력 등 중 적어도 하나 이상을 포함할 수 있다.
도 5는 다양한 실시 예에 따른 블러링에 의한 화면 출력 방법을 설명하는 화면 예시도이다.
도 5를 참조하면, 화면 501 내지 504는 복수의 영역들로 분할될 수 있다. 각각 서로 다른 컨텐츠를 출력할 수 있다. 서로 독립된 별도의 어플리케이션에 의한 화면일 수도 있고, 하나의 어플리케이션에서 출력하는 서로 다른 컨텐츠일 수도 있다. 도 5은 도 3과 달리, 제2 영역 520의 크기는 일정할 수 있다.
화면 501 내지 504는 제1 영역 510이 제2 영역 520의 하단에 배치되고, 제1 영역 510에 아래에서 위로 향하는 사용자의 스와이프 입력이 발생되는 경우를 예시적으로 도시하였으나, 이에 한정되는 것은 아니다.
화면 501에서, 사용자는 제1 입력 530a를 제1 영역 310에 발생시킬 수 있다. 그래픽 처리부 180은 제1 입력 530a의 속성(예: 입력 방향 - 화면 아래에서 위 방향, 입력 속도 - 느림/보통/빠름 중 보통, 입력 길이 - 스와이프 입력의 시작점에서 종료 지점까지의 거리 등)을 확인할 수 있다.
화면 502에서, 제1 영역 510은 제1 입력 530a에 의해 제1 컨텐츠(예: 인터넷 기사, 페이스북 화면 등)가 아랫쪽으로 이동할 수 있다. 제2 영역 520은 제1 입력 530a에 의해 점차적으로 흐려질 수 있다. 흐려지는 방식은 다양한 이미지 처리 방식이 적용될 수 있다. 도 4에서와 같은 마스킹 기법이 이용될 수도 있고, 해상도가 낮아지는 방식일 수도 있고, 필터에 의해 마스킹 되는 방식 등이 적용될 수 있다. 해상도가 낮아지는 경우, 그래픽 처리부 180 또는 프로세서 120에서 처리하는 연산량이 줄어 줄어 처리 속도가 증가할 수 있다. 제2 영역 520 전체에 대한 이미지 처리(예: 필터링)을 통해 해상도가 낮아지거나 화면이 흐려질 수 있다.
그래픽 처리부 180 사용자가 입력을 제공하고, 현재 확인하고 있는 영역(예: 제1 영역 510)에 대해서는 선명한 화면 상태를 유지하고, 사용자가 현재 무관심한 영역(예: 제2 영역 520)에 대해서는 희미하도록 하여 점차적으로 흐려지도록 할 수 있다. 사용자는 현재 관심 있는 영역에 자연스럽게 집중할 수 있다.
화면 503에서, 사용자가 제2 입력 530b를 입력하는 경우, 그래픽 처리부 180은 제2 입력 530b의 속성을 기반으로 제2 영역을 화면 502보다 더 어둡거나 희미하게 할 수 있다.
화면 504에서, 사용자가 제3 입력 530c를 입력하는 경우, 그래픽 처리부 180은 제3 입력 530c의 속성을 기반으로 제2 영역 520을 화면 503보다 더 어둡거나 흐려지도록할 수 있다. 이 경우, 제2 영역 520은 최소 밝기 상태(예: 디폴트로 설정된 명도, 채도 값)로 변경될 수 있고, 사용자가 제1 영역 510을 추가적으로 스와이프 하더라도 제2 영역 520은 최소 밝기 상태를 유지할 수 있다. 사용자가 제2 영역 520을 별도로 터치하는 경우에는, 제2 영역 320은 지정된 밝기로 변경될 수 있다.
다양한 실시 예에서, 사용자가 스와이프 동작을 취소하거나, 반대 방향(위에서 아래 방향)으로 스와이프 동작을 발생시키는 경우, 제2 영역 320은 기존의 밝기 상태로 돌아갈 수 있다.
다양한 실시 예에 따르면, 그래픽 처리부 180은 제1 영역에 표시된 제1 컨텐츠의 속성(예: 대표색, 대표 투명도, 메타데이터)에 기반하여 제2 영역의 원본 이미지에 변환 효과를 적용할 수도 있다. 예들 들어, 제1 영역에 표시된 제1 컨텐츠 부분의 속성이 푸른 색의 바다이라면, 그래픽 처리부 180은 제2 영역을 푸른 색 계열로 색상을 변화시킬 수 있다. 또한, 그래픽 처리부 180 사용자의 입력에 의해 제1 영역에 표시되는 컨텐츠 항목이나 부분이 변화할 때마다 제2 영역도 변환 효과를 적용할 수 있다. 그래픽 처리부 180은 제1 컨텐츠 속성을 판단하는 기법으로 메타 데이터의 키워드를 분석하거나, 제1 영역의 이미지 부분의 색상을 평가하거나(예: 각 픽셀의 RBG 값 기반), 혹은 제1 영역의 텍스트 정보를 분석하는 등의 기법 중 하나 이상을 활용할 수 있다. 예컨대, 제1 영역에 표시된 컨텐츠가 푸른 색이 많은 바다 풍경인 경우, 제2 영역에 표시된 컨텐츠는 푸른 색 계열의 컬러라이징(colorizing) 효과를 부여할 수 있다.
다른 실시 예에 따르면, 그래픽 처리부 180은 제2 영역에 대응(예: 가상적으로 제2 영역에 의해 덮힌 제1 컨텐츠의 부분)하는 제1 컨텐츠의 부분의 속성(예: 대표색, 대표 투명도, 메타데이터)에 기반하여 제2 영역의 원본 이미지에 변환 효과를 적용할 수도 있다. 예를 들어, 제1 영역이 녹색이 주 색상인 캘린더 연관 GUI가 표시는 경우, 제2 영역에 의해 가려지거나 맞닿아 있는 제1 컨텐츠 부분이 없으면 그래픽 처리부 180은 제2 영역에 이미지 변환 효과를 적용하지 않을 수 있다. 사용자의 스와이프 동작에 의해, 녹색의 캘린더 GUI가 제2 영역으로 진입하는 경우, 제2 영역 전체의 이미지 색상은 녹색으로 변경될 수 있다. 사용자의 추가적인 스와이프 동작에 의해 파란색 계열의 썸네일(Thumbnail) 이미지가 제2 영역으로 진입하는 경우, 제2 영역 전체는 파란색으로 변경될 수 있다.
다양한 실시 예에 따르면, 그래픽 처리부 180은 사용자 입력에 따라 제2 영역에 블랜딩(blending) 효과를 부여할 수 있다. 예컨대, 제1 영역 510에 표시되는 영역이 제1 컨텐츠의 초기 영역이면, 원본 이미지를 이미지 변환 없이 제2 영역 520에 표시하고, 사용자 입력에 따라 제1 영역 510에 표시되는 컨텐츠 영역이 달라지면, 이에 따라 제2 영역 520에 블랜딩 효과를 적용할 수 있다.
1) 사용자 입력에 의해 변화한 정도에 따라 블랜딩 효과의 강도가 달라질 수 있다. 제1 영역 510이 리스트 최상단 영역을 표시하는 경우에 제2 영역은 블랜딩 효과 강도가 최소 상태(예: 흐림 효과 정도 0%)일 수 있고, 제1 영역 510이 리스트의 최하단(미도시)을 표시하는 경우에는, 블랜딩 효과 강도(strength)가 최대(예: 흐림효과 정도 100%)로 지정될 수 있다. 따라서 사용자 입력에 따라 블랜딩 효과의 강도를 달리 할 수도 있다. 이러한 효과 강도를 조절하는 방법으로 사용자 입력에 의한 이동 거리, 현재 조회 위치의 전체 거리상의 비율, 제1 영역 510의 조회 부분의 전체 컨텐츠상 비율(zoom 조절에 따른 효과적용) 등을 이용할 수도 있다.
2) 생체정보에 기반하여 블랜딩 효과를 제어할 수도 있다. 예컨대, 사용자에게 설정된 운동 목표량(예: 칼로리 소모량, 걸음 수, 이동 거리 등)이 있고, 제1 영역 510은 해당 운동 목표량과 성취한 운동량을 표시할 수 있다. 이 때 해당 운동량을 가속도 센서, 심박센서, 모션센서, GPS 등과 같은 센서들을 이용하여 측정할 수 있으며, 측정된 운동량이 목표 운동량 대비 성취 비율(예: 0 ~ 100%)을 결정할 수 있다. 이러한 성취 비율에 근거하여 제2 영역 520에 블랜딩 효과를 적용할 수도 있다. 예컨대, 운동량의 성취비율이 0%이면 원본 이미지에 투명도를 0%(예: 안개 효과 100%)로 주어 이미지가 흰색으로 덮이게 하고, 운동량의 성취비율이 100%에 가깝거나 초과하면 투명도를 100%로 주어 안개효과를 제거함으로써 청명하게 보일 수도 있다.
블랜딩 효과로는 노이즈 생성 혹은 제거 효과, 흐림 효과, 투명도, 선명도(sharpening), 밝기, 채도, contrast 중 하나 이상을 적용할 수 있다. 또 다른 예로 Colorization 효과가 있을 수 있다. 예컨대, 초기에는 원본 이미지의 픽셀의 색상값(color component)으로 설정하고, 사용자 입력에 의한 스크롤 방향이나 이동 방향에 따라 서로 다른 색상필터를 적용하고, 해당 채도 혹은 명도 중 하나를 사용자 입력에 따라 표현 강도를 더 강화시킬 수 있다.
다른 실시 예에 따르면, 복수 개의 이미지 변환 속성을 이용하여 다양한 효과를 나타낼 수 있다. 예컨대, 흐림 효과가 적용된 열화된 이미지(blurred grainy image)를 생성할 수도 있다. 다른 예로 필름 긁힘 효과, 세피아 효과, 우천 효과 등도 제공할 수 있다.
다양한 실시 예에 따르면, 그래픽 처리부 180은 제2 영역 520의 원본 이미지와 제1 영역 510에 표시되는 컨텐츠 중 제2 영역 520에 대응하는 부분이 이미지 조합 연산을 통해 표시하여 블랜딩 효과를 줄 수 있다.
예컨대, 사용자 입력에 의해 스크롤이 되어 제1 영역 510에 표시되었던 영역이 제2 영역 520과 겹치게 될 때, 제2 영역 520에 표시된 원본 이미지와 사용자 입력에 의해 제2 영역 520에 배치된 제1 컨텐츠의 해당 부분이 조합 연산에 의해 변환되어 제2 영역 520에 표시될 수 있다. 따라서, 사용자 입력에 의해 제2 영역 520에 배치된 제1 컨텐츠의 부분에 대한 정보를 제2 컨텐츠와 합성하여 사용자에게 표시함으로써 사용자 입력의 결과를 보여주거나 혹은 예측하게 할 수도 있다.
다른 실시 예에 따르면, 이러한 조합 연산에 의한 결과는 사용자 입력이 발생하는 동안에만 보일 수도 있다. 그 결과 사용자 입력이 발생하는 동안에는 제2 영역 520에 새로 진입하는 제1 컨텐츠 부분에 의한 이미지 변환 효과를 확인할 수 있고, 사용자 입력이 없으면, 제2 영역 520에는 원본 이미지만 표시함으로써 사용자 입력이 없음을 나타낼 수도 있다. 다른 실시 예에 따르면, 사용자 인터페이스에 의한 입력이 있더라도 입력상태의 변화가 없는 동작(예: 터치 & 홀드, 일정구역내 호버링 입력)이 소정 시간(예: 1초) 이상 초과하면 이미지 조합 효과를 해제할 수도 있다.
도 6은 다양한 실시 예에 따른 정보 추가에 따른 화면 출력 방법에 따른 화면 예시도이다. 도 6은 사용자 입력이 발생되는 제1 영역이 제2 영역의 상단에 배치되는 경우를 예시적으로 도시하지만, 이에 한정되는 것은 아니다. 도 6은 수면 이력을 평가하여 표시하는 GUI를 예시적으로 나타낸다.
도 6을 참조하면, 제1 영역 610 및 제 2 영역 620은 서로 다른 컨텐츠를 출력할 수 있다. 제1 영역 610 및 제 2 영역 620은 동일한 어플리케이션(예: 수면 이력 평가 앱)에 의해 표시되는 서로 다른 컨텐츠를 각각 출력할 수 있다.
다양한 실시 예에 따르면, 그래픽 처리부 180은 제1 컨텐츠에 새로운 컨텐츠가 추가되면서, 제1 영역 610의 컨텐츠 표시 영역이 달라지면, 이에 따라 제2 영역 620의 이미지를 변환하여 표시할 수 있다. 예컨대, 사용자가 운동을 하는 경우, 이에 대한 사용자의 움직임과 이동 거리를 생체센서, 모션센서, 위치센서, 환경센서 중 하나 이상을 이용하여 판단하고, 제1 컨텐츠로서 운동 정보(예: 심박수, 운동시간, 운동경로, 이동거리, 운동량 중 하나 이상)를 계산하여 표시할 수 있다. 이 때, 제1 컨텐츠로서 운동 정보의 이력이 추가될 수 있으므로, 이에 따라 제1 컨텐츠의 양이 증가하며, 제1 영역 610에 표시되는 제1 컨텐츠 표시 영역이 달라질 수 있으며, 이에 기반하여 제2 영역 620의 크기나 표시되는 제2 컨텐츠의 표시 영역범위 혹은 제2 컨텐츠 중 최소 일부의 크기가 변화할 수 있다.
생체센서(예: 모션센서, 마이크, EMG, GSR 등)로 측정하거나 사용자 입력에 의해 수면 시작, 종료 시간, 수면 목표 시간을 입력할 수 있으며, 이러한 수면 시간 정보들을 이용하여 수면의 질적 평가(예: Bad, Fair, Good)를 수행할 수 있다. 화면 601은 12월 22일에는 오후 10시 50분에 수면을 시작하여 중간에 각성 상태가 1회 있었고, 오전 7시 10분에 수면이 종료되었으며, 수면의 질과 양을 Good 상태로 평가하였음을 나타낸다. 이 경우, 제1 영역 610은 12월 22일 정보에 포커싱된 상태이며, 제2 영역 620은 이에 대응하여 Good 상태에 대응하는 제1 색(예: 녹색)으로 설정될 수 있다. 화면 602는 12월 23일 수면정보가 제1 컨텐츠에 추가되어 제1 영역 610에서 포커싱된 상태를 표시하는 것으로, 11시 10분에 수면을 시작하여 오전 7시 10분에 수면이 종료되었고, 이에 해당하는 수면의 양과 질 평가는 Fair 상태임을 나타낸다. 이 경우, 제2 영역 620은 제1 영역에서 포커싱된 12월 23일의 수면의 평가 결과인 Fair 상태에 대응하는 제2 색(예: 베이지색)으로 설정될 수 있다. 즉, 새로 추가된 제1 컨텐츠의 포커싱된 부분과 관련하여 이의 평가 결과를 기반으로 소정의 대응하는 제2 영역 620의 변환효과를 결정할 수도 있다. 또한 사용자 입력에 의해 이전 날짜를 제1 영역 610에서 포커싱하는 경우, 이에 해당하는 수면의 질적 평가결과에 부합하는 컬러라이징 효과를 제2 영역 620에 부여할 수도 있다.
도 7은 다양한 실시 예에 따른 이미지 조합 방법을 나타내는 순서도이다.
도 7을 참조하면, 동작 710에서, 그래픽 처리부 180은 전자 장치 101의 디스플레이 160을 지정된 개수의 복수의 영역들로 분할할 수 있다. 각각의 분할된 영역은 서로 다른 컨텐츠를 출력하거나, 서로 연관된 컨텐츠를 출력하도록 설정될 수 있다. 이하에서는 그래픽 처리부 180이 디스플레이 160을 2개의 영역(제1 영역 및 제2 영역)으로 분할하는 경우를 중심으로 논의하지만, 이에 한정되는 것은 아니다.
동작 720에서, 그래픽 처리부 180은 분할된 제1 영역에 제1 컨텐츠를 출력하고, 제2 영역에 제2 컨텐츠를 출력할 수 있다. 다양한 실시 예에서, 상기 제1 컨텐츠 및 제2 컨텐츠는 서로 다른 컨텐츠일 수 있다.
동작 730에서, 그래픽 처리부 180은 제1 영역과 관련된 입력을 수신할 수 있다. 상기 입력은 사용자에 의한 입력(예: 스와이프 동작, 터치 동작 등) 또는 전자 장치 101에 포함된 센서 모듈 155를 통한 입력을 포함할 수 있다.
동작 740에서, 그래픽 처리부 180은 수신된 입력을 기반으로 서브 이미지를 결정할 수 있다. 사용자 입력에 의해 제1 영역이 스크롤되어, 제1 영역에 표시되었던 이미지가 제2 영역과 겹칠 수 있다. 그래픽 처리부 180은 상기 겹치는 이미지를 서브 이미지로 결정할 수 있다.
동작 750에서, 그래픽 처리부 180은 제2 영역에 표시된 제2 컨텐츠에 의한 원본 이미지와 사용자 입력에 의해 제2 영역에 배치된 서브 이미지를 컨벌루션 연산하여 출력할 수 있다.
다양한 실시 예에 따르면, 화면 출력 방법은 전자 장치에서 수행되고, 상기 전자 장치의 디스플레이를 제1 영역 및 제2 영역으로 분할하는 동작, 상기 제1 영역에 제1 컨텐츠를 출력하고, 상기 제2 영역에 제2 컨텐츠를 출력하는 동작, 상기 제1 영역과 관련된 입력을 수신하는 동작 및 상기 입력의 속성을 기반으로 상기 제2 컨텐츠의 출력 방식을 변경하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 입력을 수신하는 동작은 사용자에 의한 입력 또는 센서 모듈을 통해 상기 전자 장치의 상태 또는 사용자를 포함한 주변 상황을 인식한 입력을 수신하는 동작을 포함할 수 있다. 상기 제2 컨텐츠의 출력 방식을 변경하는 동작은 상기 입력의 변화를 기반으로 상기 제2 컨텐츠의 출력 방식을 단계적으로 변경하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 제2 컨텐츠의 출력 방식을 변경하는 동작은 상기 입력의 변화를 기반으로 상기 제2 영역의 크기를 변경하는 동작을 포함할 수 있다. 상기 제2 영역의 크기를 변경하는 동작은 상기 제1 영역과 상기 제2 영역 사이의 경계 라인을 이동하여 상기 제2 영역의 크기를 변경하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 제2 컨텐츠의 출력 방식을 변경하는 동작은 상기 제2 컨텐츠를 이미지 처리하여 출력하는 동작을 포함할 수 있다. 상기 제2 컨텐츠를 이미지 처리하여 출력하는 동작은 블랜딩 효과, 이미지 조합 효과, 마스킹(masking) 효과, 기하하적 처리 효과 중 적어도 하나를 수행하는 동작을 포함할 수 있다. 상기 블랜딩 효과는 노이즈의 생성 또는 제거 효과, 흐름 효과, 투명도, 선명도, 밝기, 채도, 콘트라스트, 컬러라이제이션 효과 중 적어도 하나를 포함할 수 있다. 상기 블랜딩 효과는 상기 입력에 따라 서로 다른 색상 필터를 적용하여 명도 또는 채도 중 적어도 하나를 변경하는 것을 특징으로 할 수 있다. 상기 이미지 조합 효과는 상기 제2 영역의 원본 이미지 와 상기 제1 컨텐츠 중 제2 영역에 대응하는 부분의 이미지를 조합 연산 또는 마스킹하는 것을 특징으로 할 수 있다.
다양한 실시 예에 따르면, 상기 화면 출력 방법은 상기 입력이 취소되면 상기 제2 컨텐츠를 상기 입력이 발생하기 이전 상태로 변경하는 동작을 더 포함할 수 있다. 상기 이전 상태로 변경하는 동작은 상기 입력이 취소되는 정도를 기반으로 단계적으로 상기 제2 컨텐츠를 변경하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠는 서로 다른 어플리케이션의 동작에 따라 출력되는 컨텐츠인 것을 특징으로 할 수 있다. 상기 제1 영역 및 상기 제2 영역은 오버레이 방식 또는 단일 평면 방식 중 어느 하나로 배치될 수 있다. 상기 분할하는 동작은 상기 제1 영역 및 상기 제2 영역은 상기 디스플레이의 지정된 영역 전체를 분할하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 제2 컨텐츠의 출력 방식을 변경하는 동작은 상기 입력을 기반으로 상기 제1 컨텐츠의 출력 방식을 변경하는 동작 및 상기 변경된 제1 컨텐츠의 출력 방식을 기반으로 상기 제2 컨텐츠의 출력 방식 중 적어도 하나의 속성을 변경하는 동작을 포함할 수 있다.
도 8은 다양한 실시 예에 따른 카드형 UI의 예시도이다.
도 8을 참조하면, 카드형 UI는 브라우저의 웹 페이지, 기사 타일, 대시보드 타입의 GUI에서 활용할 수 있다. 도 8은 landscape 디스플레이 모드에서 19번째, 20번째, 21번째 카드 아이템을 사용자 입력에 의해 선택하여 표시하는 경우의 예시도이다. 조회되는 아이템들은 제1 영역 810에 표시되고, 나머지 아이템들은 일부가 겹쳐진 형태(Overlay) 혹은 세워진 형태(수직, 사선)로 하나 이상의 제2 영역 820a 또는 820b에 표시될 수 있다. 예컨대, 화면 801에서, 현재 아이템이 표시된 영역은 제1 영역 810이고, 이 외의 좌우 영역은 제2 영역 820a 및 820b일 수 있다. 다른 실시 예에 따르면, 제2 영역 820a 및 820b는 조회되는 아이템을 포함하고, 겹쳐지거나 세워진 형태의 아이템들을 더 포함할 수도 있다.
화면 802에서, 제1 영역 810은 20번 아이템이 조회되는 상태이고, 사용자의 좌우 스와이프 동작에 의해 19번(화면 801)이나 21번(화면 803) 아이템으로 변경될 수 있다.
화면 802에서 좌측 제2 영역 820a에서 사용자 입력(예: 터치나 호버링)이 발생하면, 이전 아이템인 19번 아이템이 조회되며, 우측 제2 영역 820b에서 사용자 입력이 발생하면, 이후 페이지인 21번 아이템이 조회될 수 있다. 이 경우, 사용자 입력이 유지되면, 제2 영역에서 사용자 입력이 발생한 위치에 따라 조회하는 아이템을 변경하는 속도를 변경할 수도 있다. 즉, 좌측 제2 영역 820a에서 상대적으로 좌측 위치에서 사용자 입력이 유지되면(예: 일정 시간 이상 터치 유지 또는 호버링 유지), 앞 아이템들을 순차적으로 조회시 상대적으로 빠른 속도로 변경할 수 있고, 입력 위치가 상대적으로 우측 제2 영역 820b이면 상대적으로 느린 속도로 조회하는 아이템을 변경할 수 있다.
일 실시 예에 따르면, 사용자 입력에 의해 조회되는 아이템의 위치가 달라지므로, 조회되는 아이템에 대응하여 제1 영역 810의 위치에 변경이 발생할 수 있고, 이에 따라 제2 영역 820a 및 820b의 위치기반 속성이 변경될 수 있다. 예컨대, 첫 번째 아이템이나 마지막 아이템을 제1 영역 810에 표시하는 경우에는 제2 영역 820a 및 820b는 하나만 표시될 수도 있다. 예컨대, 첫번째 아이템이 제1 영역 810에 표시될 경우, 상기 제1 영역의 우측에만 제2 영역 820b가 표시될 수 있고, 마지막 아이템이 제1 영역 810에 표시될 경우, 상기 제1 영역의 좌측에만 제2 영역 820a가 표시될 수도 있다.
화면 801 내지 803은 제2 영역 820a 및 820b에서 약간 경사진 형태로 세워진 아이템들을 표시하고 있고, 제1 영역 810은 수평으로 뉘어져서 사용자가 조회할 수 있는 아이템을 표시한다.
화면 801a 내지 801c는 화면 801 내지 803의 개념적인 측면도로서, 좌측과 우측의 제2 영역 820a 및 820b에 표시될 아이템들은 수직으로 세워지고, 제1 영역 810에 표시되는 아이템은 수평으로 뉘어진 것으로 가정할 수 있다. 제2 영역 820a 및 820b 에 배치되는 아이템들의 세워진 각도는 반드시 수직일 필요가 없고, 사용자 인터페이스에 의한 입력이나 가속도 센서, 자이로 센서 등에 의한 이벤트에 따라 각도가 달라질 수도 있다.
제2 영역 820a 및 820b에 표시되는 이미지는 세워지거나 겹쳐진 상태의 아이템들과 관련된 것일 수 있다. 하나의 실시 에에 따르면, 제2 영역 820a 및 820b에 표시되는 제2 컨텐츠는 수직으로 세워진 아이템들의 윗 측면에 표현된 별개의 이미지일 수도 있다. 즉, 아이템이 수평 상태에서 표시되는 제1 컨텐츠 외에, 별개로 세워진 아이템들의 윗면들을 기반으로 표시되는 제2 컨텐츠를 제2 영역 820a 및 820b에 표시할 수도 있다.
다른 실시 예에 따르면, 제2 컨텐츠는 제2 영역 820a 및 820b에 포함되는 세워진 아이템들의 위에 오버레이되거나 오버라이트된 별도의 이미지일 수도 있다. 예컨대, 제2 컨텐츠에 해당하는 이미지는 제2 영역 820a 및 820b에 포함되는 세워진 아이템들의 윗면에 해당하는 이미지에 기반하여 조합되거나 블렌딩 효과가 적용될 수도 있다.
상기 제1 영역 810 및 제2 영역 820a 및 820b의 출력 방법은 전자 장치 101이 세로 모드인 경우에도 적용될 수 있다. 화면 804에서, 제1 영역 810은 화면의 중앙에 배치될 수 있고, 제2 영역 820a 및 820b는 제1 영역의 상단과 하단에 각각 배치될 수 있다.
도 9는 다양한 실시 예에 따른 화면 전환 예시도 이다.
도 9를 참조하면, 조회되는 아이템들은 제1 영역 910에 표시되고, 나머지 아이템들은 일부가 겹쳐진 형태(Overlay) 혹은 세워진 형태(수직, 사선)로 하나 이상의 제2 영역 920a 또는 920b에 표시될 수 있다.
화면 901a 및 901b에서, 제1 영역 810은 20번 아이템이 조회되는 상태이고, 사용자의 좌우 스와이프 동작에 의해 19번 아이템으로 변경될 수 있다. 좌측 제2 영역 920a에서 사용자 입력(예: 터치나 호버링)이 발생하면, 이전 아이템인 19번 아이템이 조회될 수 있다.
화면 901a 및 901b와 같이 20번째 아이템이 우측으로 접히거나(동작 930a) 닫힌 후(동작 930b), 19번째 아이템이 열리거나(동작 940a) 펼쳐지는 방식(동작 940b)으로 조회할 수 있다. 이 경우, 이러한 방법에 따라 수직으로 배열된 아이템들이 보여지는 이미지들이 역상이나 뒷면일 수도 있으며, 정상적인 이미지를 사선으로 바라본 모양일 수도 있다.
도 10은 다양한 실시 예에 따른 폴딩 형태의 화면 전환 예시도 이다.
도 10을 참조하면, 화면 1001은 현재 조회 중이던 아이템 20번의 화면을 절반으로 접은 후 우측으로 당기고 아이템 19번이 중앙에 위치하면 펴는 방식이다.
화면 1002는 현재 조회 중이던 아이템 20번을 축소하고, 이를 반으로 접음과 동시에 아이템 19번을 축소된 형태로 펴서 보이고, 이후 full view 하는 방식이다. 화면 1002에서, 마지막 그림은 연속하여 스크롤함으로써 더 이상 조회할 아이템이 없을 경우, 이를 알려 주기 위해 마지막 아이템을 축소된 형태로 펴서 보여 주고 나머지 아이템들은 접은 형태로 보여 주는 실시 예이다. 이러한 경우 종이나 천, 고무를 당겼을 때와 같은 물리엔진의 변형체에 기반한 그래픽스 효과를 부여함으로써 사용자에게 보다 명시적으로 정보를 제공할 수 있다. 이러한 방법으로는 종이, 천, 옷감, 스프링 시뮬레이션 기술(paper simulation, cloth simulation, spring simulation)을 적용할 수 있다. 예를 들어, 마지막 아이템을 조회 중 더 보기 위해 당기거나 미는 등의 스크롤, 넘김 이벤트를 발생하면, 스프링이 늘어났다가 본래보다 줄어드는 탄성 효과, 종이 찢어짐 효과, 천의 펄럭임 효과 등이 있다. 이러한 효과들을 이용하여 제2 영역 1020a 또는 1020b에 포함되는 아이템들에 대응하여 제2 영역 1020a 또는 1020b 에 물리엔진에 의한 효과를 적용하여 표시할 수도 있다.
도 11은 다양한 실시 예에 따른 전자 장치 1101의 블록도이다. 전자 장치 1101는, 예를 들면, 도 1에 도시된 전자 장치 101의 전체 또는 일부를 포함할 수 있다. 전자 장치 1101는 하나 이상의 프로세서(예: AP(application processor)) 1110, 통신 모듈 1120, (가입자 식별 모듈 1124, 메모리 1130, 센서 모듈 1140, 입력 장치 1150, 디스플레이 1160, 인터페이스 1170, 오디오 모듈 1180, 카메라 모듈 1191, 전력 관리 모듈 1195, 배터리 1196, 인디케이터 1197, 및 모터 1198 를 포함할 수 있다.
프로세서 1110은, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서 1110에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서 1110은, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, 프로세서 1110은 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서(image signal processor)를 더 포함할 수 있다. 프로세서 1110은 도 11에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈 1121)를 포함할 수도 있다. 프로세서 1110 는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
통신 모듈 1120은, 도 1의 통신 인터페이스 170와 동일 또는 유사한 구성을 가질 수 있다. 통신 모듈 1120은, 예를 들면, 셀룰러 모듈 1121, WiFi 모듈 1123, 블루투스 모듈 1125, GNSS 모듈 1127(예: GPS 모듈, Glonass 모듈, Beidou 모듈, 또는 Galileo 모듈), NFC 모듈 1128 및 RF(radio frequency) 모듈 1129를 포함할 수 있다.
셀룰러 모듈 1121은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈 1121은 가입자 식별 모듈(예: SIM 카드) 1124을 이용하여 통신 네트워크 내에서 전자 장치 1101의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈 1121은 프로세서 1110가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈 1121은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다.
WiFi 모듈 1123, 블루투스 모듈 1125, GNSS 모듈 1127 또는 NFC 모듈 1128 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 어떤 실시 예에 따르면, 셀룰러 모듈 1121, WiFi 모듈 1123, 블루투스 모듈 1125, GNSS 모듈 1127 또는 NFC 모듈 1128 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다.
RF 모듈 1129은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈 1129은, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter), LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시 예에 따르면, 셀룰러 모듈 1121, WiFi 모듈 1123, 블루투스 모듈 1125, GNSS 모듈 1127 또는 NFC 모듈 1128 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다.
가입자 식별 모듈 1124은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 및/또는 내장 SIM(embedded SIM)을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리 1130(예: 메모리 830)는, 예를 들면, 내장 메모리 1132 또는 외장 메모리 1134를 포함할 수 있다. 내장 메모리 1132는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다.
외장 메모리 1134는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리 1134는 다양한 인터페이스를 통하여 전자 장치 1101와 기능적으로 및/또는 물리적으로 연결될 수 있다.
센서 모듈 1140은, 예를 들면, 물리량을 계측하거나 전자 장치 1101의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈 1140은, 예를 들면, 제스처 센서 1140A, 자이로 센서 1140B, 기압 센서 1140C, 마그네틱 센서 1140D, 가속도 센서 1140E, 그립 센서 1140F, 근접 센서 1140G, 컬러(color) 센서 1140H(예: RGB(red, green, blue) 센서), 생체 센서 1140I, 온/습도 센서 1140J, 조도 센서 1140K, 또는 UV(ultra violet) 센서 1140M 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로(additionally or alternatively), 센서 모듈 1140은, 예를 들면, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서 모듈 1140은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시 예에서는, 전자 장치 1101는 프로세서 1110의 일부로서 또는 별도로, 센서 모듈 1140을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서 1110가 슬립(sleep) 상태에 있는 동안, 센서 모듈 1140을 제어할 수 있다.
입력 장치 1150은, 예를 들면, 터치 패널(touch panel) 1152, (디지털) 펜 센서(pen sensor) 1154, 키(key) 1156, 또는 초음파(ultrasonic) 입력 장치 1158를 포함할 수 있다. 터치 패널 1152은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널 1152은 제어 회로를 더 포함할 수도 있다. 터치 패널 1152은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다.
(디지털) 펜 센서 1154는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 키 1156는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치 1158는 마이크(예: 마이크 1188)를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다.
디스플레이 1160(예: 디스플레이 860)는 패널 1162, 홀로그램 장치 1164, 또는 프로젝터 1166를 포함할 수 있다. 패널 1162은, 도 1의 디스플레이 160와 동일 또는 유사한 구성을 포함할 수 있다. 패널 1162은, 예를 들면, 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널 1162은 터치 패널 1152과 하나의 모듈로 구성될 수도 있다. 홀로그램 장치 1164는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터 1166는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치 1101의 내부 또는 외부에 위치할 수 있다. 한 실시 예에 따르면, 디스플레이 1160은 패널 1162, 홀로그램 장치 1164, 또는 프로젝터 1166를 제어하기 위한 제어 회로를 더 포함할 수 있다.
인터페이스 1170은, 예를 들면, HDMI(high-definition multimedia interface) 1172, USB(universal serial bus) 1174, 광 인터페이스(optical interface) 1176, 또는 D-sub(D-subminiature) 1178를 포함할 수 있다. 인터페이스 1170은, 예를 들면, 도 8에 도시된 통신 인터페이스 870에 포함될 수 있다. 추가적으로 또는 대체적으로(additionally and alternatively), 인터페이스 1170은, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure digital) 카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈 1180은, 예를 들면, 소리(sound)와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈 1180의 적어도 일부 구성요소는, 예를 들면, 도 1에 도시된 입출력 인터페이스 150에 포함될 수 있다. 오디오 모듈 1180은, 예를 들면, 스피커 1182, 리시버 1184, 이어폰 1186, 또는 마이크 1188 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
카메라 모듈 1191은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, ISP(image signal processor), 또는 플래시(flash)(예: LED 또는 xenon lamp 등)를 포함할 수 있다.
전력 관리 모듈 1195은, 예를 들면, 전자 장치 1101의 전력을 관리할 수 있다. 한 실시 예에 따르면, 전력 관리 모듈 1195은 PMIC(power management integrated circuit), 충전 IC(charger integrated circuit), 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리 1196의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리 1196는, 예를 들면, 충전식 전지(rechargeable battery) 및/또는 태양 전지(solar battery)를 포함할 수 있다.
인디케이터 1197는 전자 장치 1101 또는 그 일부(예: 프로세서 1110)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터 1198는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동(vibration), 또는 햅틱(haptic) 효과 등을 발생시킬 수 있다. 도시되지는 않았으나, 전자 장치 1101는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV 지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시 예에서, 전자 장치는 본 문서에서 기술된 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 다양한 실시 예에 따른 전자 장치의 구성요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
도 12는 다양한 실시 예에 따른 프로그램 모듈의 블록도이다. 한 실시 예에 따르면, 프로그램 모듈 1210(예: 프로그램 140)은 전자 장치(예: 전자 장치 101)에 관련된 자원을 제어하는 운영 체제(operating system(OS)) 및/또는 운영 체제 상에서 구동되는 다양한 어플리케이션(예: 어플리케이션 프로그램 147)을 포함할 수 있다. 운영 체제는, 예를 들면, 안드로이드(android), iOS, 윈도우즈(windows), 심비안(symbian), 타이젠(tizen), 또는 바다(bada) 등이 될 수 있다.
프로그램 모듈 1210은 커널 1220, 미들웨어 1230, 어플리케이션 프로그래밍 인터페이스(application programming interface (API)) 1260, 및/또는 어플리케이션 1270을 포함할 수 있다. 프로그램 모듈 1210의 적어도 일부는 전자 장치 상에 프리로드(preload) 되거나, 외부 전자 장치(예: 전자 장치 102, 104, 서버 106 등)로부터 다운로드(download) 가능하다.
커널 1220(예: 커널 141)은, 예를 들면, 시스템 리소스 매니저 1221 및/또는 디바이스 드라이버 1223를 포함할 수 있다. 시스템 리소스 매니저 1221는 시스템 리소스의 제어, 할당, 또는 회수 등을 수행할 수 있다. 한 실시 예에 따르면, 시스템 리소스 매니저 1221는 프로세스 관리부, 메모리 관리부, 또는 파일 시스템 관리부 등을 포함할 수 있다. 디바이스 드라이버 1223는, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WiFi 드라이버, 오디오 드라이버, 또는 IPC(inter-process communication) 드라이버를 포함할 수 있다.
미들웨어 1230은, 예를 들면, 어플리케이션 1270이 공통적으로 필요로 하는 기능을 제공하거나, 어플리케이션 1270이 전자 장치 내부의 제한된 시스템 자원을 효율적으로 사용할 수 있도록 API 1260를 통해 다양한 기능들을 어플리케이션 1270으로 제공할 수 있다. 한 실시 예에 따르면, 미들웨어 1230(예: 미들웨어 143)는 런타임 라이브러리 1235, 어플리케이션 매니저(application manager) 1241, 윈도우 매니저(window manager) 1242, 멀티미디어 매니저(multimedia manager) 1243, 리소스 매니저(resource manager) 1244, 파워 매니저(power manager) 1245, 데이터베이스 매니저(database manager) 1246, 패키지 매니저(package manager) 1247, 연결 매니저(connectivity manager) 1248, 통지 매니저(notification manager) 1249, 위치 매니저(location manager) 1250, 그래픽 매니저(graphic manager) 1251, 또는 보안 매니저(security manager) 1252 중 적어도 하나를 포함할 수 있다.
런타임 라이브러리 1235는, 예를 들면, 어플리케이션 1270이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 런타임 라이브러리 1235는 입출력 관리, 메모리 관리, 또는 산술 함수에 대한 기능 등을 수행할 수 있다.
어플리케이션 매니저 1241는, 예를 들면, 어플리케이션 1270 중 적어도 하나의 어플리케이션의 생명 주기(life cycle)를 관리할 수 있다. 윈도우 매니저 1242는 화면에서 사용하는 GUI 자원을 관리할 수 있다. 멀티미디어 매니저 1243는 다양한 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱(codec)을 이용하여 미디어 파일의 인코딩(encoding) 또는 디코딩(decoding)을 수행할 수 있다. 리소스 매니저 1244는 어플리케이션 1270 중 적어도 어느 하나의 어플리케이션의 소스 코드, 메모리 또는 저장 공간 등의 자원을 관리할 수 있다.
파워 매니저 1245는, 예를 들면, 바이오스(BIOS: basic input/output system) 등과 함께 동작하여 배터리(battery) 또는 전원을 관리하고, 전자 장치의 동작에 필요한 전력 정보 등을 제공할 수 있다. 데이터베이스 매니저 1246는 어플리케이션 1270 중 적어도 하나의 어플리케이션에서 사용할 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저 1247는 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 업데이트를 관리할 수 있다.
연결 매니저 1248는, 예를 들면, WiFi 또는 블루투스 등의 무선 연결을 관리할 수 있다. 통지 매니저 1249는 도착 메시지, 약속, 근접성 알림 등의 사건(event)을 사용자에게 방해되지 않는 방식으로 표시 또는 통지할 수 있다. 위치 매니저 1250은 전자 장치의 위치 정보를 관리할 수 있다. 그래픽 매니저 1251는 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 보안 매니저 1252는 시스템 보안 또는 사용자 인증 등에 필요한 제반 보안 기능을 제공할 수 있다. 한 실시 예에 따르면, 전자 장치(예: 전자 장치 101)가 전화 기능을 포함한 경우, 미들웨어 1230은 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화 매니저(telephony manager)를 더 포함할 수 있다.
미들웨어 1230은 전술한 구성요소들의 다양한 기능의 조합을 형성하는 미들웨어 모듈을 포함할 수 있다. 미들웨어 1230은 차별화된 기능을 제공하기 위해 운영 체제의 종류 별로 특화된 모듈을 제공할 수 있다. 또한, 미들웨어 1230은 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다.
API 1260(예: API 145)는, 예를 들면, API 프로그래밍 함수들의 집합으로, 운영 체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠(tizen)의 경우, 플랫폼 별로 두 개 이상의 API 셋을 제공할 수 있다.
어플리케이션 1270(예: 어플리케이션 프로그램 147)은, 예를 들면, 홈 1271, 다이얼러 1272, SMS/MMS 1273, IM(instant message) 1274, 브라우저 1275, 카메라 1276, 알람 1277, 컨택트 1278, 음성 다이얼 1279, 이메일 1280, 달력 1281, 미디어 플레이어 1282, 앨범 1283, 또는 시계 1284, 건강 관리(health care)(예: 운동량 또는 혈당 등을 측정), 또는 환경 정보 제공(예: 기압, 습도, 또는 온도 정보 등을 제공) 등의 기능을 수행할 수 있는 하나 이상의 어플리케이션을 포함할 수 있다.
한 실시 예에 따르면, 어플리케이션 1270은 전자 장치(예: 전자 장치 101)와 외부 전자 장치(예: 전자 장치 102, 104) 사이의 정보 교환을 지원하는 어플리케이션(이하, 설명의 편의 상, "정보 교환 어플리케이션")을 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다.
예를 들면, 알림 전달 어플리케이션은 전자 장치의 다른 어플리케이션(예: SMS/MMS 어플리케이션, 이메일 어플리케이션, 건강 관리 어플리케이션, 또는 환경 정보 어플리케이션 등)에서 발생된 알림 정보를 외부 전자 장치(예: 전자 장치 802, 804)로 전달하는 기능을 포함할 수 있다. 또한, 알림 전달 어플리케이션은, 예를 들면, 외부 전자 장치로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다.
장치 관리 어플리케이션은, 예를 들면, 전자 장치와 통신하는 외부 전자 장치(예: 전자 장치 102, 104)의 적어도 하나의 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴-온/턴-오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 외부 전자 장치에서 동작하는 어플리케이션 또는 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스 등)를 관리(예: 설치, 삭제, 또는 업데이트)할 수 있다.
한 실시 예에 따르면, 어플리케이션 1270은 외부 전자 장치(예: 전자 장치 102, 104)의 속성(에 따라 지정된 어플리케이션(예: 모바일 의료 기기의 건강 관리 어플리케이션 등)을 포함할 수 있다. 한 실시 예에 따르면, 어플리케이션 1270은 외부 전자 장치(예: 서버 106 또는 전자 장치 102, 104)로부터 수신된 어플리케이션을 포함할 수 있다. 한 실시 예에 따르면, 어플리케이션 1270은 프리로드 어플리케이션(preloaded application) 또는 서버로부터 다운로드 가능한 제3자 어플리케이션(third party application)을 포함할 수 있다. 도시된 실시 예에 따른 프로그램 모듈 1210의 구성요소들의 명칭은 운영 체제의 종류에 따라서 달라질 수 있다.
다양한 실시 예에 따르면, 프로그램 모듈 1210의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어, 또는 이들 중 적어도 둘 이상의 조합으로 구현될 수 있다. 프로그램 모듈 1210의 적어도 일부는, 예를 들면, 프로세서(예: 프로세서 120)에 의해 구현(implement)(예: 실행)될 수 있다. 프로그램 모듈 1210의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트(sets of instructions) 또는 프로세스 등을 포함할 수 있다.
본 문서에서 사용된 용어 "모듈"은, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은, 예를 들면, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면,"모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서 820)에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리 830가 될 수 있다.
컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM(read only memory), RAM(random access memory), 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
다양한 실시 예에 따르면, 컴퓨터로 판독 가능한 기록 매체는 접근 시 인증이 요구되는 데이터를 획득하는 동작 및 상기 데이터의 적어도 일부를 프로세서와 물리적 채널을 통해 연결된 내장형 보안 요소(embedded secure element, eSE)에 저장하는 동작을 실행시키기 위한 프로그램을 저장할 수 있다.
다양한 실시 예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다. 그리고 본 문서에 개시된 실시 예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 문서에서 기재된 기술의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 문서의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.

Claims (16)

  1. 전자 장치에서 수행되는 화면 출력 방법에 있어서,
    상기 전자 장치의 디스플레이를 제1 영역 및 제2 영역으로 분할하는 동작;
    상기 제1 영역에 제1 컨텐츠를 출력하고, 상기 제2 영역에 제2 컨텐츠를 출력하는 동작;
    상기 제1 영역과 관련된 입력을 수신하는 동작; 및
    상기 입력의 속성을 기반으로 상기 제2 컨텐츠의 출력 방식을 변경하는 동작;을 포함하는 화면 출력 방법.
  2. 제1항에 있어서, 상기 입력을 수신하는 동작은
    사용자에 의한 입력 또는 센서 모듈을 통해 상기 전자 장치의 상태 또는 사용자를 포함한 주변 상황을 인식한 입력을 수신하는 동작을 포함하는 화면 출력 방법.
  3. 제1항에 있어서, 상기 제2 컨텐츠의 출력 방식을 변경하는 동작은
    상기 입력의 변화를 기반으로 상기 제2 컨텐츠의 출력 방식을 단계적으로 변경하는 동작;을 포함하는 화면 출력 방법.
  4. 제1항에 있어서, 상기 제2 컨텐츠의 출력 방식을 변경하는 동작은
    상기 입력의 변화를 기반으로 상기 제2 영역의 크기를 변경하는 동작;을 포함하는 화면 출력 방법.
  5. 제4항에 있어서, 상기 제2 영역의 크기를 변경하는 동작은
    상기 제1 영역과 상기 제2 영역 사이의 경계 라인을 이동하여 상기 제2 영역의 크기를 변경하는 동작;을 포함하는 화면 출력 방법.
  6. 제1항에 있어서, 상기 제2 컨텐츠의 출력 방식을 변경하는 동작은
    상기 제2 컨텐츠를 이미지 처리하여 출력하는 동작;을 포함하는 화면 출력 방법.
  7. 제6항에 있어서, 상기 제2 컨텐츠를 이미지 처리하여 출력하는 동작은
    블랜딩 효과, 이미지 조합 효과, 마스킹(masking) 효과, 기하하적 처리 효과 중 적어도 하나를 수행하는 동작;을 포함하는 화면 출력 방법.
  8. 제7항에 있어서, 상기 블랜딩 효과는
    노이즈의 생성 또는 제거 효과, 흐름 효과, 투명도, 선명도, 밝기, 채도, 콘트라스트, 컬러라이제이션 효과 중 적어도 하나를 포함하는 것을 특징으로 하는 화면 출력 방법.
  9. 제7항에 있어서, 상기 블랜딩 효과는
    상기 입력에 따라 서로 다른 색상 필터를 적용하여 명도 또는 채도 중 적어도 하나를 변경하는 것을 특징으로 하는 화면 출력 방법.
  10. 제7항에 있어서, 상기 이미지 조합 효과는
    상기 제2 영역의 원본 이미지와 상기 제1 컨텐츠 중 제2 영역에 대응하는 부분의 이미지를 조합 연산 또는 마스킹하는 것을 특징으로 하는 화면 출력 방법.
  11. 제1항에 있어서,
    상기 입력이 취소되면 상기 제2 컨텐츠를 상기 입력이 발생하기 이전 상태로 변경하는 동작;을 더 포함하는 화면 출력 방법.
  12. 제11항에 있어서, 상기 이전 상태로 변경하는 동작은
    상기 입력이 취소되는 정도를 기반으로 단계적으로 상기 제2 컨텐츠를 변경하는 동작;을 포함하는 화면 출력 방법.
  13. 제1항에 있어서, 상기 제1 컨텐츠 및 상기 제2 컨텐츠는
    서로 다른 어플리케이션의 동작에 따라 출력되는 컨텐츠인 것을 특징으로 하는 화면 출력 방법.
  14. 제1항에 있어서, 상기 제1 영역 및 상기 제2 영역은
    오버레이 방식 또는 단일 평면 방식 중 어느 하나의 방식으로 배치되는 것을 특징으로 하는 화면 출력 방법.
  15. 제1항에 있어서, 상기 분할하는 동작은
    상기 제1 영역 및 상기 제2 영역은 상기 디스플레이의 지정된 영역 전체를 분할하는 동작;을 포함하는 화면 출력 방법.
  16. 제1항에 있어서, 상기 제2 컨텐츠의 출력 방식을 변경하는 동작은
    상기 입력을 기반으로 상기 제1 컨텐츠의 출력 방식을 변경하는 동작; 및
    상기 변경된 제1 컨텐츠의 출력 방식을 기반으로 상기 제2 컨텐츠의 출력 방식 중 적어도 하나의 속성을 변경하는 동작;을 포함하는 화면 출력 방법.
KR1020150076559A 2015-05-29 2015-05-29 화면 출력 방법 및 이를 지원하는 전자 장치 KR102423184B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020150076559A KR102423184B1 (ko) 2015-05-29 2015-05-29 화면 출력 방법 및 이를 지원하는 전자 장치
EP16171792.1A EP3098703A3 (en) 2015-05-29 2016-05-27 Method for outputting screen and electronic device supporting the same
US15/167,387 US20160349936A1 (en) 2015-05-29 2016-05-27 Method for outputting screen and electronic device supporting the same
CN201610368232.1A CN106201390A (zh) 2015-05-29 2016-05-30 用于输出屏幕的方法及支持该方法的电子装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150076559A KR102423184B1 (ko) 2015-05-29 2015-05-29 화면 출력 방법 및 이를 지원하는 전자 장치

Publications (2)

Publication Number Publication Date
KR20160140221A true KR20160140221A (ko) 2016-12-07
KR102423184B1 KR102423184B1 (ko) 2022-07-21

Family

ID=56092787

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150076559A KR102423184B1 (ko) 2015-05-29 2015-05-29 화면 출력 방법 및 이를 지원하는 전자 장치

Country Status (4)

Country Link
US (1) US20160349936A1 (ko)
EP (1) EP3098703A3 (ko)
KR (1) KR102423184B1 (ko)
CN (1) CN106201390A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101877215B1 (ko) * 2017-11-10 2018-07-12 엘아이지넥스원 주식회사 영상센서에 기인한 노이즈를 반영하는 시뮬레이션 영상 생성장치 및 방법
CN109830179A (zh) * 2019-03-29 2019-05-31 维沃移动通信有限公司 终端设备及用于终端设备的感光检测方法
US10504442B2 (en) 2017-06-30 2019-12-10 Lg Display Co., Ltd. Display device and gate driving circuit thereof, control method and virtual reality device

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115700434A (zh) 2014-09-02 2023-02-07 苹果公司 用于可变触觉输出的语义框架
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
DK179657B1 (en) * 2016-06-12 2019-03-13 Apple Inc. Devices, methods and graphical user interfaces for providing haptic feedback
US10335045B2 (en) 2016-06-24 2019-07-02 Universita Degli Studi Di Trento Self-adaptive matrix completion for heart rate estimation from face videos under realistic conditions
USD884721S1 (en) * 2016-07-01 2020-05-19 Visa International Service Association Display screen or portion thereof with animated graphical user interface
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
US10386999B2 (en) 2016-10-26 2019-08-20 Google Llc Timeline-video relationship presentation for alert events
USD843398S1 (en) * 2016-10-26 2019-03-19 Google Llc Display screen with graphical user interface for a timeline-video relationship presentation for alert events
CN108153406B (zh) * 2016-12-02 2021-09-10 成都理想智美科技有限公司 一种控制hmd视角的方法及头戴显示设备
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
US10352496B2 (en) 2017-05-25 2019-07-16 Google Llc Stand assembly for an electronic device providing multiple degrees of freedom and built-in cables
US10819921B2 (en) 2017-05-25 2020-10-27 Google Llc Camera assembly having a single-piece cover element
US10972685B2 (en) 2017-05-25 2021-04-06 Google Llc Video camera assembly having an IR reflector
US11392896B2 (en) * 2017-06-02 2022-07-19 Apple Inc. Event extraction systems and methods
CN112162656A (zh) * 2017-06-29 2021-01-01 上海耕岩智能科技有限公司 一种生物特征识别方法和装置
US10460499B2 (en) * 2017-09-27 2019-10-29 Whatsapp Inc. Animating digital graphics overlaid on visual media items based on dynamic attributes
USD876459S1 (en) * 2017-12-04 2020-02-25 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD876458S1 (en) * 2017-12-04 2020-02-25 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD868810S1 (en) * 2017-12-04 2019-12-03 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
CN108021671B (zh) * 2017-12-06 2022-04-15 深圳市茁壮网络股份有限公司 一种页面透明处理方法及装置
CN117332116A (zh) * 2017-12-12 2024-01-02 谷歌有限责任公司 提供搜索结果的视频预览
US11029834B2 (en) * 2017-12-20 2021-06-08 International Business Machines Corporation Utilizing biometric feedback to allow users to scroll content into a viewable display area
USD916765S1 (en) * 2018-04-11 2021-04-20 Trivver, Inc. Display panel with transitional graphical user interface for augmented reality component
CN108419116B (zh) * 2018-04-16 2021-02-09 北京酷我科技有限公司 一种竖版视频与滚动区联动的方法
CN108616770B (zh) * 2018-04-16 2021-02-09 北京酷我科技有限公司 一种竖版视频与滚动区联动方法
CN108650536A (zh) * 2018-05-28 2018-10-12 深圳智英电子有限公司 基于北斗卫星定位及指纹人脸识别户户通直播卫星机顶盒
USD897362S1 (en) * 2018-07-11 2020-09-29 Timeshifter, Inc. Display screen or portion thereof with graphical user interface
CN109166169A (zh) * 2018-07-30 2019-01-08 长沙景美集成电路设计有限公司 一种gpgpu纹理采样器的硬件实现
CN108851251B (zh) * 2018-08-20 2021-08-31 厦门盈趣科技股份有限公司 一种具有身份识别功能的电子烟及其使用方法
USD904456S1 (en) * 2018-11-06 2020-12-08 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
CN109512466A (zh) * 2018-12-08 2019-03-26 余姚市华耀工具科技有限公司 智能化妇科b超仪
GB2607172B (en) * 2019-04-25 2023-11-01 Motional Ad Llc Graphical user interface for display of autonomous vehicle behaviors
CN110177208B (zh) * 2019-05-31 2022-02-22 努比亚技术有限公司 一种视频录制的关联控制方法、设备及计算机可读存储介质
CN111176764B (zh) * 2019-12-10 2022-04-05 华为技术有限公司 显示控制方法和终端设备
US11528297B1 (en) 2019-12-12 2022-12-13 Zimperium, Inc. Mobile device security application for malicious website detection based on representative image
USD944819S1 (en) * 2020-02-05 2022-03-01 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
CN111568398A (zh) * 2020-04-30 2020-08-25 北京科技大学 一种基于体域网的生理信号采集系统
US11703990B2 (en) * 2020-08-17 2023-07-18 Microsoft Technology Licensing, Llc Animated visual cues indicating the availability of associated content
US11487420B2 (en) 2020-09-02 2022-11-01 Deere & Company Methods, apparatus, and articles of manufacture to display data in compact spaces
CN112672092B (zh) * 2020-12-18 2022-09-06 北京字跳网络技术有限公司 展示方法、装置和电子设备
CN113722028B (zh) * 2021-05-28 2022-10-28 荣耀终端有限公司 动态卡片显示方法及装置
US20230394935A1 (en) * 2022-06-06 2023-12-07 International Business Machines Corporation Haptic effect management
US11947896B2 (en) 2022-06-24 2024-04-02 Adobe Inc. Font recommendation
US11989505B2 (en) * 2022-10-05 2024-05-21 Adobe Inc. Generating personalized digital design template recommendations
US11886809B1 (en) 2022-10-31 2024-01-30 Adobe Inc. Identifying templates based on fonts

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120056542A (ko) * 2010-11-25 2012-06-04 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US20130159941A1 (en) * 2011-01-06 2013-06-20 Research In Motion Limited Electronic device and method of displaying information in response to a gesture
US20130167078A1 (en) * 2011-12-26 2013-06-27 Inadev Corporation Screen management system
KR101445653B1 (ko) * 2007-07-18 2014-09-29 삼성전자주식회사 합성 이미지 구성 방법

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003123086A (ja) * 2001-10-11 2003-04-25 Sony Corp 情報処理装置及び方法、並びに情報処理プログラム
US20050005249A1 (en) * 2003-07-01 2005-01-06 Microsoft Corporation Combined content selection and display user interface
US20140033118A1 (en) * 2006-06-21 2014-01-30 Adobe Systems Incorporated Space management in windowed environments
US8689132B2 (en) * 2007-01-07 2014-04-01 Apple Inc. Portable electronic device, method, and graphical user interface for displaying electronic documents and lists
TWI381304B (zh) * 2008-04-22 2013-01-01 Htc Corp 使用者介面顯示區域的調整方法、裝置及儲存媒體
KR101640460B1 (ko) * 2009-03-25 2016-07-18 삼성전자 주식회사 휴대 단말기의 분할 화면 운용 방법 및 이를 지원하는 휴대 단말기
US20110113361A1 (en) * 2009-11-06 2011-05-12 Apple Inc. Adjustment presets for digital images
US9104290B2 (en) * 2011-02-11 2015-08-11 Samsung Electronics Co., Ltd. Method for controlling screen of mobile terminal
KR20130034747A (ko) * 2011-09-29 2013-04-08 삼성전자주식회사 휴대 단말기의 사용자 인터페이스 제공 방법 및 장치
US9218123B2 (en) * 2011-12-29 2015-12-22 Apple Inc. Device, method, and graphical user interface for resizing content viewing and text entry interfaces
US8963857B2 (en) * 2012-02-21 2015-02-24 Lg Electronics Inc. Electronic device and method of controlling the same
KR102069014B1 (ko) * 2012-09-25 2020-02-12 삼성전자 주식회사 휴대단말기의 분리화면 제어장치 및 방법
JP6399744B2 (ja) * 2013-12-04 2018-10-03 キヤノン株式会社 表示装置、表示方法
CN103885711A (zh) * 2014-03-21 2014-06-25 深圳市东方拓宇科技有限公司 一种电子设备分屏控制方法和系统
CN103870282B (zh) * 2014-03-24 2015-06-17 努比亚技术有限公司 一种调整图标显示方式的方法及装置
KR101610882B1 (ko) * 2014-08-08 2016-04-08 네이버 주식회사 표시 제어 장치, 표시 제어 방법 및 이를 컴퓨터에서 실행하기 위한 컴퓨터 프로그램
CN104320590A (zh) * 2014-11-19 2015-01-28 北京奇虎科技有限公司 一种分屏图像处理方法、装置及客户端

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101445653B1 (ko) * 2007-07-18 2014-09-29 삼성전자주식회사 합성 이미지 구성 방법
KR20120056542A (ko) * 2010-11-25 2012-06-04 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US20130159941A1 (en) * 2011-01-06 2013-06-20 Research In Motion Limited Electronic device and method of displaying information in response to a gesture
US20130167078A1 (en) * 2011-12-26 2013-06-27 Inadev Corporation Screen management system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10504442B2 (en) 2017-06-30 2019-12-10 Lg Display Co., Ltd. Display device and gate driving circuit thereof, control method and virtual reality device
KR101877215B1 (ko) * 2017-11-10 2018-07-12 엘아이지넥스원 주식회사 영상센서에 기인한 노이즈를 반영하는 시뮬레이션 영상 생성장치 및 방법
CN109830179A (zh) * 2019-03-29 2019-05-31 维沃移动通信有限公司 终端设备及用于终端设备的感光检测方法
CN109830179B (zh) * 2019-03-29 2021-01-08 维沃移动通信有限公司 终端设备及用于终端设备的感光检测方法

Also Published As

Publication number Publication date
EP3098703A2 (en) 2016-11-30
US20160349936A1 (en) 2016-12-01
KR102423184B1 (ko) 2022-07-21
CN106201390A (zh) 2016-12-07
EP3098703A3 (en) 2017-03-22

Similar Documents

Publication Publication Date Title
KR102423184B1 (ko) 화면 출력 방법 및 이를 지원하는 전자 장치
US10429905B2 (en) Electronic apparatus having a hole area within screen and control method thereof
KR102345579B1 (ko) 이미지 관련 서비스를 제공하기 위한 방법, 저장 매체 및 전자 장치
KR102402096B1 (ko) 이미지 내 오브젝트와 관련된 정보를 제공하는 전자 장치
US10917552B2 (en) Photographing method using external electronic device and electronic device supporting the same
CN107665485B (zh) 用于显示图形对象的电子装置和计算机可读记录介质
KR102545768B1 (ko) 메타 데이터를 처리하기 위한 장치 및 방법
EP3586316B1 (en) Method and apparatus for providing augmented reality function in electronic device
KR20160139132A (ko) 전자 장치 및 전자 장치에서의 상황 기반의 정보 처리 방법
KR102278945B1 (ko) 이미지 처리 방법 및 이를 지원하는 전자 장치
CN108353161B (zh) 电子设备、可穿戴设备和用于控制通过电子设备显示的对象的方法
US10410407B2 (en) Method for processing image and electronic device thereof
KR102355039B1 (ko) 잠금 화면 출력 제어 방법 및 이를 지원하는 전자 장치
KR20170031525A (ko) 디스플레이 사이의 각도를 측정하는 방법 및 이를 사용하는 전자 장치
KR20170085317A (ko) 디스플레이 제어 방법 및 이를 사용하는 전자 장치
KR20160143312A (ko) 이미지 운용 방법 및 이를 지원하는 전자 장치
KR20160144818A (ko) 이미지 데이터 처리 방법 및 이를 지원하는 전자 장치
KR20160054840A (ko) 정보를 공유하기 위한 가상 환경
KR20160059264A (ko) 화면 제어 방법 및 그 방법을 처리하는 전자 장치
KR20160144851A (ko) 이미지를 처리하는 전자 장치 및 그 제어 방법
KR20160097974A (ko) 영상의 컬러 변환 방법 및 전자 장치
KR20160103398A (ko) 이미지의 품질 측정 방법 및 장치
CN106250076B (zh) 用于独立控制显示器的多个区域的装置及其方法
KR102411281B1 (ko) 전자 장치 및 전자 장치의 이미지 파일 생성 방법
KR20160055534A (ko) 전자 장치의 주변 환경에 기반한 컨텐트 적응 방법 및 그 전자 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right