KR20180104224A - 화면 제어 방법 및 이를 지원하는 전자 장치 - Google Patents

화면 제어 방법 및 이를 지원하는 전자 장치 Download PDF

Info

Publication number
KR20180104224A
KR20180104224A KR1020170030192A KR20170030192A KR20180104224A KR 20180104224 A KR20180104224 A KR 20180104224A KR 1020170030192 A KR1020170030192 A KR 1020170030192A KR 20170030192 A KR20170030192 A KR 20170030192A KR 20180104224 A KR20180104224 A KR 20180104224A
Authority
KR
South Korea
Prior art keywords
information
particle
electronic device
user
display
Prior art date
Application number
KR1020170030192A
Other languages
English (en)
Inventor
김동현
마지연
이진하
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170030192A priority Critical patent/KR20180104224A/ko
Priority to CN201810198168.6A priority patent/CN108572588A/zh
Priority to US15/916,904 priority patent/US11023347B2/en
Publication of KR20180104224A publication Critical patent/KR20180104224A/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • G05B19/0423Input/output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3089Monitoring arrangements determined by the means or processing involved in sensing the monitored data, e.g. interfaces, connectors, sensors, probes, agents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D21/00Measuring or testing not otherwise provided for
    • G01D21/02Measuring two or more variables by means not covered by a single other subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/0004Gaseous mixtures, e.g. polluted air
    • G01N33/0009General constructional details of gas analysers, e.g. portable test equipment
    • G01N33/0062General constructional details of gas analysers, e.g. portable test equipment concerning the measuring method, e.g. intermittent, or the display, e.g. digital
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/25Pc structure of the system
    • G05B2219/25257Microcontroller

Abstract

전자 장치에 있어서, 외부 환경을 감지하기 위한 센서, 적어도 하나의 이동 가능한 파티클을 포함하는 제1 화면을 출력하는 디스플레이, 메모리, 및 상기 센서, 상기 디스플레이, 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하고, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 센서를 통해 상기 외부 환경을 측정한 제1 정보를 획득하고, 상기 제1 정보를 분석한 결과에 기초하여 상기 적어도 하나의 이동 가능한 파티클 중 제1 파티클의 표시 상태를 변경하도록 하는 인스트럭션들을 저장하는 것을 특징으로 하는 전자 장치가 개시된다. 이 외에도 명세서를 통해 파악되는 다양한 실시 예가 가능하다.

Description

화면 제어 방법 및 이를 지원하는 전자 장치{Screen controlling method and electronic device supporting the same}
본 문서에 개시되는 실시 예들은 화면 제어 방법 및 이를 지원하는 전자 장치와 관련된다.
유비쿼터스(ubiquitous) 사회로의 급격한 발전에 따라, 디스플레이를 포함하는 전자 장치는 다양한 시각 자원의 활용을 지원할 수 있게 되었다. 나아가, 근래의 전자 장치는 전자 장치와 사람 간의 소통 인프라 구축을 지향하며 보다 새로운 양상의 플랫폼으로 발전하고 있다. 일례로, 전시 공간 또는 업무 공간 등과 같은 공공의 공간 상에서나 거실 등과 같은 사적인 공간 상에 배치되는 전자 장치는 화면 내에 표시되는 동적 파티클들을 심미적으로 조합하여 다채로운 영상을 구현하는 이른바, 미디어 아트 영상을 제공할 수 있다.
그러나, 미디어 아트 영상을 제공하는 종래의 전자 장치는 단순히 심미적 효과를 창출하는 데 목적을 두고 있어, 전자 장치의 실용성이 특정적으로 국한되거나 미미할 수 있다.
본 문서에서 개시되는 실시 예들은, 미디어 아트 영상을 구성하는 동적 파티클을 이용하여 외부 환경에 대한 정보 예컨대, 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 또는 미세먼지 농도 등을 시각적으로 제공하는 화면 제어 방법 및 이를 지원하는 전자 장치를 제공할 수 있다.
본 문서에서 개시되는 일 실시 예에 따른 전자 장치는, 외부 환경을 감지하기 위한 센서, 적어도 하나의 이동 가능한 파티클을 포함하는 제1 화면을 출력하는 디스플레이, 메모리, 및 상기 센서, 상기 디스플레이, 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하고, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 센서를 통해 상기 외부 환경을 측정한 제1 정보를 획득하고, 상기 제1 정보를 분석한 결과에 기초하여 상기 적어도 하나의 이동 가능한 파티클 중 제1 파티클의 표시 상태를 변경하도록 하는 인스트럭션들을 저장할 수 있다.
또한, 본 문서에서 개시되는 일 실시 예에 따른 전자 장치의 화면 제어 방법은 적어도 하나의 이동 가능한 파티클을 포함하는 제1 화면을 디스플레이에 출력하는 동작, 센서를 통해 외부 환경을 측정한 제1 정보를 획득하는 동작, 및 상기 제1 정보를 분석한 결과에 기초하여 상기 적어도 하나의 이동 가능한 파티클 중 제1 파티클의 표시 상태를 변경하는 동작을 포함할 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 미디어 아트 영상을 통해 외부 환경에 대한 정보를 시각적으로 제공함으로써, 실용성이 가미된 심미적 효과를 창출할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 일 실시 예에 따른 화면 제어와 관련한 전자 장치의 블록도이다.
도 2는 일 실시 예에 따른 정보 제공을 위한 화면 제어와 관련한 전자 장치의 운용 방법을 나타낸 도면이다.
도 3은 일 실시 예에 따른 사용자의 움직임에 따른 화면 제어와 관련한 전자 장치의 운용 방법을 나타낸 도면이다.
도 4는 일 실시 예에 따른 사용자와의 인터랙션을 통한 화면 제어와 관련한 전자 장치의 운용 방법을 나타낸 도면이다.
도 5는 일 실시 예에 따른 동적 파티클을 포함하는 화면을 설명하기 위한 도면이다.
도 6은 일 실시 예에 따른 동적 파티클을 이용한 정보 제공을 설명하기 위한 도면이다.
도 7은 일 실시 예에 따른 동적 파티클의 상태 변경을 설명하기 위한 도면이다.
도 8은 일 실시 예에 따른 사용자의 움직임에 따른 화면 제어를 설명하기 위한 도면이다.
도 9는 일 실시 예에 따른 정보 제공을 위한 화면을 설명하기 위한 도면이다.
도 10은 일 실시 예에 따른 정보 제공을 위한 다른 화면을 설명하기 위한 도면이다.
이하, 본 문서의 다양한 실시 예들이 첨부된 도면을 참조하여 기재된다. 실시 예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다.
본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한", "~하는 능력을 가지는", "~하도록 변경된", "~하도록 만들어진", "~를 할 수 있는", 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시 예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. 어떤 실시 예에 따르면, 전자 장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자 장치는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 일 실시 예에 따른 화면 제어와 관련한 전자 장치의 블록도이다.
전자 장치(100)는 디스플레이(150)를 통해 다양한 컨텐츠를 표시할 수 있다. 예를 들어, 전자 장치(100)는 메모리(170)에 저장된 어플리케이션의 실행 화면을 디스플레이(150)에 출력할 수 있다. 상기 어플리케이션의 실행 화면에는 미디어 아트 영상과 같이 심미적인 요소가 가미된 화면을 포함할 수 있다. 상기 미디어 아트 영상은 프로그램에 의해 생성되는 다양한 그래픽 요소 예를 들어, 파티클 또는 이미지 등을 포함할 수 있으며, 상기 그래픽 요소들이 수학적 계산에 의해 새로운 형태의 그래픽으로 변환되어 실시간으로 렌더링될 수 있다.
또한, 전자 장치(100)는 외부 환경에 대한 정보를 디스플레이(150)를 통해 시각적으로 표현할 수 있다. 예를 들어, 전자 장치(100)는 센서(110)를 통해 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 또는 미세먼지 농도 등을 측정하고, 측정된 데이터에 기초하여 이동 가능한(동적인) 파티클들을 생성하고, 생성된 파티클들로 구성된 화면(예: 미디어 아트 영상)을 디스플레이(150)에 출력할 수 있다.
상술한 기능을 수행하기 위한 전자 장치(100)는 도 1을 참조하면, 센서(110), 프로세서(130), 디스플레이(150), 및 메모리(170)를 포함할 수 있다. 그러나, 전자 장치(100)의 구성이 이에 한정되는 것은 아니다. 다양한 실시 예에 따르면, 전자 장치(100)는 상술한 구성요소들 중 적어도 하나를 생략할 수 있으며, 적어도 하나의 다른 구성요소를 더 포함할 수도 있다. 한 예로, 전자 장치(100)는 외부 전자 장치와의 통신을 위한 통신 회로, 피사체를 촬영하기 위한 카메라, 또는 사용자의 입력을 수신하기 위한 인터페이스(예: 입력 장치)를 더 포함할 수도 있다.
센서(110)는 물리량을 계측하거나 전자 장치(100)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서(110)는 전자 장치(100)의 외부 환경에 대한 정보를 측정할 수 있다. 한 실시 예에 따르면, 센서(110)는 전자 장치(100)가 위치한 공간의 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 또는 미세먼지 농도 등을 측정할 수 있다. 센서(110)는 예를 들면, 온도 센서, 습도 센서, 가스 센서, 먼지 센서, 또는 오염도 측정 센서 등을 포함할 수 있다.
프로세서(130)는 전자 장치(100)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 프로세서(130)는 예를 들어, 운영 체제 또는 응용 프로그램(어플리케이션)을 구동하여 프로세서(130)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 또는 연산을 수행할 수 있다. 프로세서(130)는 다른 구성요소들(예: 비활성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다. 한 예로, 프로세서(130)는 화면 제어와 관련된 명령 또는 데이터를 휘발성 메모리에 로드하여 지정된 프로그램 루틴(routine)에 따라 처리할 수 있다. 프로세서(130)는 중앙처리장치, 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다.
한 실시 예에 따르면, 프로세서(130)는 센서(110)를 통해 획득된 전자 장치(100)의 외부 환경에 대한 정보를 분석할 수 있다. 한 예로, 프로세서(130)는 전자 장치(100)가 위치한 공간의 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 또는 미세먼지 농도 등을 분석하고, 상기 공간에 대한 전체적인 환경 지수를 산출할 수 있다.
한 실시 예에 따르면, 프로세서(130)는 상기 외부 환경에 대한 평가를 위해 사용되는 각각의 정보(예: 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 또는 미세먼지 농도 등)를 서로 다른 형상의 파티클에 매핑시킬 수 있다. 한 예로, 프로세서(130)는 온도 정보, 습도 정보, 이산화탄소 농도 정보, 유기화학물질 농도 정보, 및 미세먼지 농도 정보를 각각 원형 파티클, 삼각형 파티클, 사각형 파티클, 오각형 파티클, 및 육각형 파티클에 매핑시킬 수 있다. 그러나, 각 정보가 매핑되는 파티클의 형상이 이에 한정되는 것은 아니다. 또한, 각 정보가 매핑되는 파티클의 형상이 동일하더라도 프로세서(130)는 파티클의 다른 그래픽 요소를 다르게 하여 각 정보를 서로 구별할 수도 있다. 예를 들어, 프로세서(130)는 파티클의 색상, 파티클의 크기, 테두리 굵기, 테두리 색상 등을 다르게 하여 각 정보에 매핑되는 파티클을 구별할 수도 있다.
한 실시 예에 따르면, 프로세서(130)는 상기 외부 환경에 대한 평가를 위해 사용되는 각각의 정보를 분석한 결과에 따라, 각 정보에 매핑되는 파티클의 표시 상태를 다르게 설정할 수 있다. 한 예로, 프로세서(130)는 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 및 미세먼지 농도가 각각 높아질수록 그에 대응되는 파티클의 개수를 증가시킬 수 있다. 다른 예로, 프로세서(130)는 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 및 미세먼지 농도가 각각 높아질수록 그에 대응되는 파티클의 이동 속도를 증가시킬 수 있다. 또 다른 예로, 프로세서(130)는 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 및 미세먼지 농도가 각각 높아질수록 그에 대응되는 파티클의 색상을 진하게 하거나, 파티클의 크기를 크게 하거나, 테두리를 굵게 하거나, 테두리의 색상을 진하게 하는 등 파티클의 그래픽 요소를 변경할 수 있다.
한 실시 예에 따르면, 프로세서(130)는 상기 파티클의 디스플레이 기간(예: 상기 파티클이 디스플레이(150)에 출력되는 기간)을 다르게 설정할 수 있다. 한 예로, 프로세서(130)는 파티클의 속성(예: 형상, 색상 등)에 따라 디스플레이 기간을 다르게 설정할 수 있다. 또한, 프로세서(130)는 상기 외부 환경에 대한 평가를 위해 사용되는 각각의 정보에 매핑되는 파티클의 개수를 다르게 지정할 수 있다. 예를 들어, 프로세서(130)는 온도에 매핑되는 제1 파티클의 개수를 제1 범위로 지정하고, 습도에 매핑되는 제2 파티클의 개수를 제2 범위로 지정하고, 이산화탄소 농도에 매핑되는 제3 파티클의 개수를 제3 범위로 지정하고, 유기화학물질 농도에 매핑되는 제4 파티클의 개수를 제4 범위로 지정하고, 미세먼지 농도에 매핑되는 제5 파티클의 개수를 제5 범위로 지정할 수 있다. 이에 따라, 프로세서(130)는 어느 하나의 속성을 갖는 파티클이 지정된 시간 동안 이동하다가 사라지면, 지정된 개수의 범위 내에서 상기 속성을 갖는 다른 파티클을 생성할 수 있다.
한 실시 예에 따르면, 프로세서(130)는 전자 장치(100)가 카메라를 포함하는 경우, 카메라를 통해 피사체(예: 사용자)를 촬영한 영상을 획득할 수 있다. 또한, 프로세서(130)는 촬영 영상을 분석할 수 있다. 한 예로, 프로세서(130)는 촬영 영상에 포함된 오브젝트를 검출할 수 있다. 프로세서(130)는 영상에서 특징점들을 추출하고, 상기 특징점들 중 인접한 특징점들로 구성된 형상(예: 오메가 형상)을 하나의 오브젝트(예: 얼굴)로 검출할 수 있다. 상기 특징점은 예를 들어, 영상에서 물체를 검출, 추적, 또는 인식하기 위해 상기 영상의 특징을 나타내줄 수 있는 지점으로서, 상기 영상에서 각 물체의 형태, 크기, 또는 위치가 변해도 쉽게 식별 가능한 지점을 포함할 수 있다. 또한, 상기 특징점은 카메라의 촬영 각도 또는 조명 등이 변해도 상기 영상에서 쉽게 식별 가능한 지점을 포함할 수 있다. 상기 특징점은 예를 들어, 각 물체의 코너점(corner point) 또는 경계점으로 설정될 수 있다.
한 실시 예에 따르면, 프로세서(130)은 촬영 영상을 구성하는 오브젝트들을 구분할 수 있다. 프로세서(130)은 각 오브젝트 별로 오브젝트의 속성을 판단하여 오브젝트들을 구분할 수 있다. 예컨대, 프로세서(130)은 해당 오브젝트가 사람, 동물, 또는 물체인지를 판단할 수 있으며, 더 나아가 사람의 신체 부위(예: 얼굴, 손 등), 동물의 종류, 또는 물체의 종류 등을 판단하여 오브젝트들을 구분할 수 있다.
한 실시 예에 따르면, 프로세서(130)는 촬영 영상을 분석한 결과에 기초하여 사용자의 움직임(또는 사용자의 신체 일부의 움직임)을 판단할 수 있다. 프로세서(130)는 상기 영상에 포함된 특징점들 중 사용자(또는 사용자의 신체 일부)에 대응되는 특징점을 추적하여 사용자(또는 사용자의 신체 일부)의 이동 방향 및 이동 속도를 판단할 수 있다.
한 실시 예에 따르면, 프로세서(130)는 사용자(또는 사용자의 신체 일부)의 이동 방향 및 이동 속도에 기초하여, 상기 외부 환경에 대한 평가를 위해 사용되는 각각의 정보에 매핑되는 파티클의 이동 방향 및 이동 속도를 설정할 수 있다. 예를 들어, 프로세서(130)는 사용자(또는 사용자의 신체 일부)의 위치 변화에 대응되도록 화면에 배치된 파티클의 위치를 변경시킬 수 있다. 한 예로, 프로세서(130)는 사용자의 손이 화면과 근접한 상태에서 화면의 왼쪽 방향에서 오른쪽 방향으로 이동하면, 사용자의 손과 근접한 화면 영역에 배치된 파티클을 사용자의 손의 이동 방향 및 이동 속도에 맞춰 화면의 왼쪽에서 오른쪽으로 이동시킬 수 있다.
한 실시 예에 따르면, 프로세서(130)는 전자 장치(100)가 사용자의 입력을 수신하기 위한 인터페이스(예: 입력 장치)를 포함하거나, 센서(110)가 근접 센서를 포함하는 경우, 상기 입력 장치 또는 상기 근접 센서를 통해 사용자의 인터랙션을 획득할 수 있다. 상기 입력 장치는 예를 들어, 사용자의 음성을 수신하기 위한 마이크, 사용자의 터치 입력을 위한 터치 센서, 또는 사용자의 버튼 입력을 위한 물리 버튼 등을 포함할 수 있다.
한 실시 예에 따르면, 프로세서(130)는 상기 입력 장치 또는 상기 근접 센서를 통해 획득된 사용자의 인터랙션이 지정된 조건을 만족하는 경우, 외부 환경에 대한 상세 정보를 포함하는 화면을 디스플레이(150)에 출력할 수 있다. 한 예로, 프로세서(130)는 마이크를 통해 수신된 음성이 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 또는 미세먼지 농도에 대한 상세한 정보의 출력을 명령하는 문구를 포함하는 경우, 해당 정보의 상세한 정보를 나타내는 화면을 디스플레이(150)에 출력할 수 있다. 다른 예로, 프로세서(130)는 상기 근접 센서를 통해 지정된 거리 이내로 접근하는 사용자(또는 사용자의 신체 일부)를 감지하면, 외부 환경에 대한 상세 정보를 포함하는 화면을 디스플레이(150)에 출력할 수 있다.
한 실시 예에 따르면, 프로세서(130)는 전자 장치(100)가 외부 전자 장치와의 통신을 위한 통신 회로를 포함하는 경우, 상기 외부 전자 장치로부터 전자 장치(100)가 위치한 공간에 대한 환경 정보 또는 상기 공간 이외의 다른 공간에 대한 환경 정보를 획득할 수 있다. 한 예로, 프로세서(130)는 상기 통신 회로를 통해, 기상청 서버로부터 전자 장치(100)가 위치한 지역 또는 다른 지역의 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 또는 미세먼지 농도에 대한 정보를 획득할 수 있다.
한 실시 예에 따르면, 프로세서(130)는 센서(110)를 통해 획득된 정보와 상기 외부 전자 장치로부터 획득된 정보를 구분할 수 있도록 화면을 구성하여 디스플레이(150)에 출력할 수 있다. 한 예로, 프로세서(130)는 화면의 중앙 영역과 주변 영역을 구분하는 경계선을 생성하고, 상기 경계선의 내측에 해당하는 상기 중앙 영역에는 센서(110)를 통해 획득된 정보에 대응되는 파티클들을 배치하고, 상기 경계선의 외측에 해당하는 상기 주변 영역에는 상기 외부 전자 장치로부터 획득된 정보에 대응되는 파티클들을 배치할 수 있다. 또한, 프로세서(130)는 상기 중앙 영역에 배치된 제1 파티클이 이동하더라도 상기 중앙 영역을 벗어나지 않도록(상기 주변 영역을 침범하지 않도록) 상기 제1 파티클의 이동 위치를 조정할 수 있으며, 마찬가지로 상기 주변 영역에 배치된 제2 파티클이 이동하더라도 상기 주변 영역을 벗어나지 않도록(상기 중앙 영역을 침범하지 않도록) 상기 제2 파티클의 이동 위치를 조정할 수 있다.
디스플레이(150)는 사용자에게 각종 컨텐츠를 표시할 수 있다. 한 예로, 디스플레이(150)는 동적 파티클들로 구성된 미디어 아트 영상을 표시할 수 있다. 한 실시 예에 따르면, 디스플레이(150)는 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체 일부를 이용한 터치, 제스처, 근접, 또는 호버링(hovering) 입력을 수신할 수 있다.
메모리(170)는 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 예를 들어, 메모리(170)는 전자 장치(100)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시 예에 따르면, 메모리(170)는 소프트웨어 및/또는 프로그램을 저장할 수 있다. 상기 프로그램은 어플리케이션을 포함할 수 있다. 상기 어플리케이션은 적어도 하나의 지정된 기능을 수행하기 위한 일련의 프로그램(또는 명령어(인스트럭션)) 집합으로서, 예컨대, 영상 재생 어플리케이션 등을 포함할 수 있다. 상기 영상 재생 어플리케이션은 메모리(170)에 저장된 미디어 아트 영상을 디스플레이(150)에 출력하는 명령어들을 포함할 수 있다. 메모리(170)는 내장 메모리 또는 외장 메모리를 포함할 수 있다.
상술한 바와 같이, 다양한 실시 예에 따르면, 전자 장치(예: 전자 장치(100))는 외부 환경을 감지하기 위한 센서(예: 센서(110)), 적어도 하나의 이동 가능한 파티클을 포함하는 제1 화면을 출력하는 디스플레이(예: 디스플레이(150)), 메모리(예: 메모리(170)), 및 상기 센서, 상기 디스플레이, 및 상기 메모리와 전기적으로 연결된 프로세서(예: 프로세서(130))를 포함하고, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 센서를 통해 상기 외부 환경을 측정한 제1 정보를 획득하고, 상기 제1 정보를 분석한 결과에 기초하여 상기 적어도 하나의 이동 가능한 파티클 중 제1 파티클의 표시 상태를 변경하도록 하는 인스트럭션들을 저장할 수 있다.
다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 제1 정보의 속성에 따라 상기 제1 파티클의 모양, 크기, 색상, 및 디스플레이 기간 중 적어도 하나를 다르게 설정하도록 하는 인스트럭션들을 저장할 수 있다.
다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 제1 정보의 속성별로 측정된 값에 기초하여 상기 제1 파티클의 위치, 개수, 및 이동 속도 중 적어도 하나를 다르게 설정하도록 하는 인스트럭션들을 저장할 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치는 카메라를 더 포함하고, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 카메라를 통해 사용자를 촬영한 영상을 획득하고, 상기 영상을 분석한 결과에 기초하여 상기 사용자의 움직임을 판단하고, 상기 움직임의 방향 및 속도에 기초하여 상기 제1 파티클의 이동 방향 및 이동 속도를 설정하도록 하는 인스트럭션들을 저장할 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치는 사용자의 인터랙션을 위한 인터페이스를 더 포함하고, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 인터페이스를 통해 상기 사용자의 인터랙션을 획득하고, 상기 사용자의 인터랙션이 지정된 조건을 만족하면, 상기 디스플레이를 통해 상기 제1 정보에 대한 상세 정보를 포함하는 제2 화면을 출력하도록 하는 인스트럭션들을 저장할 수 있다.
다양한 실시 예에 따르면, 상기 인터페이스는, 상기 사용자의 접근을 감지하는 근접 센서, 상기 사용자의 음성을 수신하는 마이크, 상기 사용자의 터치 입력을 획득하는 터치 센서, 및 상기 사용자의 버튼 입력에 대응하여 신호를 발생시키는 물리 버튼 중 적어도 하나를 포함할 수 있다.
다양한 실시 예에 따르면, 상기 전자 장치는 외부 전자 장치와의 통신을 위한 통신 회로를 더 포함하고, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 통신 회로를 통해 상기 외부 전자 장치로부터 다른 외부 환경을 측정한 제2 정보를 획득하고, 상기 제2 정보를 분석한 결과에 기초하여 상기 적어도 하나의 이동 가능한 파티클 중 제2 파티클의 표시 상태를 변경하도록 하는 인스트럭션들을 저장할 수 있다.
다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 제1 파티클이 상기 제1 화면의 제1 영역에서만 이동 가능하도록 설정하고, 상기 제2 파티클이 상기 제1 영역을 둘러싸도록 외측에 위치하는 제2 영역에서만 이동 가능하도록 설정하는 인스트럭션들을 저장할 수 있다.
다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 제2 정보의 속성에 따라 상기 제2 파티클의 모양, 크기, 색상, 및 디스플레이 기간 중 적어도 하나를 다르게 설정하도록 하는 인스트럭션들을 저장할 수 있다.
다양한 실시 예에 따르면, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 제2 정보의 속성별로 측정된 값에 기초하여 상기 제2 파티클의 위치, 개수, 및 이동 속도 중 적어도 하나를 다르게 설정하도록 하는 인스트럭션들을 저장할 수 있다.
도 2는 일 실시 예에 따른 정보 제공을 위한 화면 제어와 관련한 전자 장치의 운용 방법을 나타낸 도면이다.
도 2를 참조하면, 전자 장치(예: 전자 장치(100))는 동작 210에서, 이동 가능한 파티클을 포함하는 화면을 디스플레이(예: 디스플레이(150))에 출력할 수 있다. 한 예로, 전자 장치(예: 프로세서(130))는 이동 가능한 파티클들로 구성된 미디어 아트 영상을 상기 디스플레이에 출력할 수 있다.
동작 230에서, 전자 장치(예: 프로세서(130))는 센서(예: 센서(110))를 통해 외부 환경에 대한 정보 예컨대, 온도 정보, 습도 정보, 이산화탄소 농도 정보, 유기화학물질 농도 정보, 또는 미세먼지 농도 정보 등을 획득할 수 있다. 또한, 동작 250에서, 전자 장치(예: 프로세서(130))는 상기 센서를 통해 획득한 정보를 분석할 수 있다. 한 예로, 전자 장치(예: 프로세서(130))는 상기 센서를 통해 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 또는 미세먼지 농도를 측정하고, 측정된 데이터를 기반으로 상기 외부 환경에 대한 환경 지수를 산출할 수 있다. 어떤 실시 예에서, 전자 장치는 상기 센서를 통해 획득한 정보가 상기 외부 환경에 대한 가공된 데이터(예: 사용자가 알아볼 수 있는 정보로 가공된 데이터)인 경우, 동작 250의 수행을 생략할 수도 있다.
동작 270에서, 전자 장치(예: 프로세서(130))는 분석된 결과(또는 획득된 정보)에 기초하여 상기 파티클의 표시 상태를 변경할 수 있다. 한 예로, 전자 장치(예: 프로세서(130))는 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 및 미세먼지 농도가 각각 높아질수록 그에 대응되는 파티클의 개수를 증가시킬 수 있다. 다른 예로, 전자 장치(예: 프로세서(130))는 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 및 미세먼지 농도가 각각 높아질수록 그에 대응되는 파티클의 이동 속도를 증가시킬 수 있다. 또 다른 예로, 전자 장치(예: 프로세서(130))는 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 및 미세먼지 농도가 각각 높아질수록 그에 대응되는 파티클의 색상을 진하게 하거나, 파티클의 크기를 크게 하거나, 테두리를 굵게 하거나, 테두리의 색상을 진하게 하는 등 파티클의 그래픽 요소를 변경할 수 있다.
또한, 상기 파티클의 표시 상태를 변경하는 방법은 그 역도 가능하다. 한 예로, 전자 장치(예: 프로세서(130))는 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 및 미세먼지 농도가 각각 낮아질수록 그에 대응되는 파티클의 개수를 감소시킬 수 있다. 다른 예로, 전자 장치(예: 프로세서(130))는 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 및 미세먼지 농도가 각각 낮아질수록 그에 대응되는 파티클의 이동 속도를 감소시킬 수 있다. 또 다른 예로, 전자 장치(예: 프로세서(130))는 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 및 미세먼지 농도가 각각 낮아질수록 그에 대응되는 파티클의 색상을 연하게 하거나, 파티클의 크기를 작게 하거나, 테두리를 얇게 하거나, 테두리의 색상을 연하게 하는 등 파티클의 그래픽 요소를 변경할 수 있다.
도 3은 일 실시 예에 따른 사용자의 움직임에 따른 화면 제어와 관련한 전자 장치의 운용 방법을 나타낸 도면이다.
도 3을 참조하면, 전자 장치(예: 전자 장치(100))는 동작 310에서, 카메라를 통해 사용자를 촬영한 영상을 획득할 수 있다. 전자 장치(예: 프로세서(130))는 지정된 시간 동안 지정된 시간 간격으로 사용자를 촬영할 수 있도록 상기 카메라를 제어할 수 있다. 또한, 전자 장치(예: 프로세서(130))는 사용자를 촬영한 영상을 메모리(예: 메모리(170))에 저장할 수 있다.
동작 330에서, 전자 장치(예: 프로세서(130))는 촬영 영상을 분석하고, 분석된 결과를 기초로 하여 사용자의 움직임을 판단할 수 있다. 예컨대, 전자 장치(예: 프로세서(130))는 상기 촬영 영상에 포함된 특징점들 중 사용자에 대응되는 특징점을 추적하여 사용자의 이동 방향 및 이동 속도를 판단할 수 있다.
동작 350에서, 전자 장치(예: 프로세서(130))는 상기 사용자의 움직임의 방향 및 속도에 기초하여 디스플레이(예: 디스플레이(150))에 출력된 이동 가능한 파티클을 포함하는 화면을 변경할 수 있다. 예컨대, 전자 장치(예: 프로세서(130))는 상기 파티클의 이동 방향 및 이동 속도를 상기 사용자의 이동 방향 및 이동 속도에 대응되도록 설정할 수 있다. 한 예로, 전자 장치(예: 프로세서(130))는 사용자가 화면과 근접한 상태에서 화면의 왼쪽 방향에서 오른쪽 방향으로 이동하면, 사용자와 근접한 화면 영역에 배치된 파티클을 사용자의 이동 방향 및 이동 속도에 맞춰 화면의 왼쪽에서 오른쪽으로 이동시킬 수 있다. 어떤 실시 예에서, 전자 장치(예: 프로세서(130))는 사용자의 신체 일부(예: 손)에 대한 움직임을 판단하고, 상기 사용자의 신체 일부의 움직임에 따라 상기 파티클의 이동 방향 및 이동 속도를 설정할 수도 있다.
도 4는 일 실시 예에 따른 사용자와의 인터랙션을 통한 화면 제어와 관련한 전자 장치의 운용 방법을 나타낸 도면이다.
도 4를 참조하면, 전자 장치(예: 전자 장치(100))는 동작 410에서, 입력 장치(예: 마이크, 터치 센서, 또는 물리 버튼 등) 또는 센서(예: 센서(110))를 통해 사용자의 인터랙션을 획득할 수 있다. 한 예로, 전자 장치(예: 프로세서(130))는 상기 마이크를 통해 사용자의 음성을 획득하거나, 상기 터치 센서를 통해 사용자의 터치 입력을 획득하거나, 또는 상기 물리 버튼으로부터 발생된 신호를 수신할 수 있다. 또 다른 예로, 전자 장치(예: 프로세서(130))는 상기 센서(예: 근접 센서)를 통해 사용자의 근접을 판단(감지)할 수 있다.
동작 430에서, 전자 장치(예: 프로세서(130))는 상기 사용자의 인터랙션이 지정된 조건을 만족하는지를 판단할 수 있다. 한 예로, 전자 장치(예: 프로세서(130))는 상기 입력 장치 또는 상기 센서를 통해 획득된 상기 사용자의 인터랙션이 외부 환경에 대한 상세 정보의 출력과 관련된 사용자 입력인지를 판단할 수 있다. 예컨대, 전자 장치(예: 프로세서(130))는 상기 마이크를 통해 수신된 음성 데이터에 대한 음성 인식을 수행하고, 상기 음성 인식의 결과에 상기 외부 환경에 대한 상세 정보의 출력을 명령하는 문구를 포함하는지를 판단할 수 있다. 또는, 전자 장치(예: 프로세서(130))는 상기 터치 센서를 통해 획득된 터치 입력을 분석하고, 분석된 결과에 기초하여 상기 터치 입력이 상기 외부 환경에 대한 상세 정보를 출력하도록 설정된 표시 객체를 선택하는 사용자 입력인지를 판단할 수 있다. 또는, 전자 장치(예: 프로세서(130))는 상기 물리 버튼이 상기 외부 환경에 대한 상세 정보를 출력하도록 설정된 물리 버튼인지를 판단할 수 있다. 또 다른 예로, 전자 장치(예: 프로세서(130))는 상기 센서(예: 근접 센서)를 통해 사용자가 지정된 거리 내로 근접하였는지를 판단할 수 있다.
상기 사용자의 인터랙션이 지정된 조건을 만족하는 경우, 전자 장치(예: 프로세서(130))는 동작 450에서, 상기 외부 환경에 대한 상세 정보를 포함하는 화면을 디스플레이(예: 디스플레이(150))에 출력할 수 있다. 한 예로, 전자 장치(예: 프로세서(130))는 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 및 미세먼지 농도 중 적어도 하나에 대한 상세한 정보를 나타내는 화면을 상기 디스플레이에 출력할 수 있다. 상기 외부 환경에 대한 상세 정보는 예를 들어, 전자 장치가 위치한 공간에 대한 전체적인 환경 지수를 포함할 수 있다. 또한, 상기 외부 환경에 대한 상세 정보는 텍스트 또는 그래프 등의 형식으로 상기 화면에 구성될 수 있다.
상술한 바와 같이, 다양한 실시 예에 따르면, 전자 장치(예: 전자 장치(100))의 화면 제어 방법은 적어도 하나의 이동 가능한 파티클을 포함하는 제1 화면을 디스플레이에 출력하는 동작, 센서를 통해 외부 환경을 측정한 제1 정보를 획득하는 동작, 및 상기 제1 정보를 분석한 결과에 기초하여 상기 적어도 하나의 이동 가능한 파티클 중 제1 파티클의 표시 상태를 변경하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 화면 제어 방법은 상기 제1 정보의 속성에 따라 상기 제1 파티클의 모양, 크기, 색상, 및 디스플레이 기간 중 적어도 하나를 다르게 설정하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 화면 제어 방법은 상기 제1 정보의 속성별로 측정된 값에 기초하여 상기 제1 파티클의 위치, 개수, 및 이동 속도 중 적어도 하나를 다르게 설정하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 화면 제어 방법은 카메라를 통해 사용자를 촬영한 영상을 획득하는 동작, 상기 영상을 분석한 결과에 기초하여 상기 사용자의 움직임을 판단하는 동작, 및 상기 움직임의 방향 및 속도에 기초하여 상기 제1 파티클의 이동 방향 및 이동 속도를 설정하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 화면 제어 방법은 인터페이스를 통해 사용자의 인터랙션을 획득하는 동작, 및 상기 사용자의 인터랙션이 지정된 조건을 만족하면, 상기 제1 정보에 대한 상세 정보를 포함하는 제2 화면을 상기 디스플레이에 출력하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 사용자의 인터랙션을 획득하는 동작은, 근접 센서를 통해 상기 사용자의 접근을 감지하는 동작, 마이크를 통해 상기 사용자의 음성을 획득하는 동작, 터치 센서를 통해 상기 사용자의 터치 입력을 획득하는 동작, 또는 물리 버튼으로부터 상기 사용자의 버튼 입력에 대응하여 발생된 신호를 수신하는 동작을 포함할 수 있다.
다양한 실시 예에 따르면, 상기 화면 제어 방법은 통신 회로를 통해 외부 전자 장치로부터 다른 외부 환경을 측정한 제2 정보를 획득하는 동작, 및 상기 제2 정보를 분석한 결과에 기초하여 상기 적어도 하나의 이동 가능한 파티클 중 제2 파티클의 표시 상태를 변경하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 화면 제어 방법은 상기 제1 파티클이 상기 제1 화면의 제1 영역에서만 이동 가능하도록 설정하는 동작, 및 상기 제2 파티클이 상기 제1 영역을 둘러싸도록 외측에 위치하는 제2 영역에서만 이동 가능하도록 설정하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 화면 제어 방법은 상기 제2 정보의 속성에 따라 상기 제2 파티클의 모양, 크기, 색상, 및 디스플레이 기간 중 적어도 하나를 다르게 설정하는 동작을 더 포함할 수 있다.
다양한 실시 예에 따르면, 상기 화면 제어 방법은 상기 제2 정보의 속성별로 측정된 값에 기초하여 상기 제2 파티클의 위치, 개수, 및 이동 속도 중 적어도 하나를 다르게 설정하는 동작을 더 포함할 수 있다.
도 5는 일 실시 예에 따른 동적 파티클을 포함하는 화면을 설명하기 위한 도면이다.
도 5를 참조하면, 전자 장치(예: 전자 장치(100))는 센서(예: 센서(110))를 통해 획득한 센싱 데이터를 이용하여 외부 환경에 대한 정보(예: 온도 정보, 습도 정보, 이산화탄소 농도 정보, 유기화학물질 농도 정보, 또는 미세먼지 농도 정보 등)를 생성하고, 생성된 정보에 기초하여 이동 가능한(동적인) 파티클을 생성하고, 생성된 파티클로 구성된 화면(500)(예: 미디어 아트 영상)을 디스플레이(예: 디스플레이(150))에 출력할 수 있다. 또는, 전자 장치는 상기 디스플레이에 미디어 아트 영상(500)이 출력된 상태인 경우, 상기 외부 환경에 대한 평가를 위해 사용되는 각각의 정보(예: 온도 정보, 습도 정보, 이산화탄소 농도 정보, 유기화학물질 농도 정보, 또는 미세먼지 농도 정보 등)를 상기 미디어 아트 영상(500)을 구성하는 파티클에 매핑시킬 수도 있다. 한 예로, 전자 장치는 온도 정보, 습도 정보, 이산화탄소 농도 정보, 유기화학물질 농도 정보, 및 미세먼지 농도 정보를 각각 제1 파티클(501), 제2 파티클(503), 제3 파티클(505), 제4 파티클(507), 및 제5 파티클(509)에 매핑시킬 수 있다.
한 실시 예에 따르면, 전자 장치(예: 프로세서(130))는 메모리(예: 메모리(170))에 저장된 영상 재생 어플리케이션을 실행함으로써, 미디어 아트 영상(500)(또는, 파티클로 구성된 화면)을 상기 디스플레이에 출력할 수 있다. 이 경우, 전자 장치는 미디어 아트 영상(500)을 구성하는 파티클에 상기 외부 환경에 대한 평가를 위해 사용되는 각각의 정보를 매핑시키고, 상기 정보가 갖는 데이터 값에 대응되도록 상기 파티클의 표시 상태를 설정함으로써, 상기 외부 환경에 대한 대략적인 정보를 표현할 수 있다. 어떤 실시 예에서, 전자 장치(예: 프로세서(130))는 외부 환경 측정 어플리케이션을 실행함으로써, 미디어 아트 영상(500)(또는, 파티클로 구성된 화면)을 상기 디스플레이에 출력할 수도 있다. 이 경우, 전자 장치는 상기 외부 환경에 대한 평가를 위해 사용되는 각각의 정보가 갖는 데이터 값에 대응되도록 파티클을 생성하고, 생성된 파티클로 미디어 아트 영상(500)을 구성하고, 구성된 미디어 아트 영상(500)을 상기 디스플레이에 출력할 수 있다.
미디어 아트 영상(500)을 구성하는 파티클은 대응되는 환경 정보의 종류에 따라 그래픽적 요소(예: 형상, 색상, 크기, 테두리의 굵기, 또는 테두리의 색상 등)가 다르게 설정될 수 있다. 한 예로, 온도 정보에 대응되는 제1 파티클(501), 습도 정보에 대응되는 제2 파티클(503), 이산화탄소 농도 정보에 대응되는 제3 파티클(505), 유기화학물질 농도 정보에 대응되는 제4 파티클(507), 및 미세먼지 농도 정보에 대응되는 제5 파티클(509)은 각각 원형, 삼각형, 사각형, 오각형, 및 육각형의 파티클일 수 있다.
한 실시 예에 따르면, 전자 장치(예: 프로세서(130))는 각각의 환경 정보가 갖는 데이터 값에 기초하여 그에 대응되는 파티클의 표시 상태를 설정할 수 있다. 한 예로, 전자 장치는 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 및 미세먼지 농도가 각각 높아질수록 그에 대응되는 제1 파티클(501), 제2 파티클(503), 제3 파티클(505), 제4 파티클(507), 및 제5 파티클(509)의 개수를 증가시키거나, 이동 속도를 증가시키거나, 색상을 진하게 하거나, 크기를 크게 하거나, 테두리를 굵게 하거나, 또는 테두리의 색상을 진하게 설정할 수 있다. 또한, 전자 장치는 그 역으로 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 및 미세먼지 농도가 각각 낮아질수록 그에 대응되는 제1 파티클(501), 제2 파티클(503), 제3 파티클(505), 제4 파티클(507), 및 제5 파티클(509)의 개수를 감소시키거나, 이동 속도를 감소시키거나, 색상을 연하게 하거나, 크기를 작게 하거나, 테두리를 얇게 하거나, 또는 테두리의 색상을 연하게 설정할 수 있다.
한 실시 예에 따르면, 전자 장치(예: 프로세서(130))는 각각의 환경 정보에 대응되는 파티클의 디스플레이 기간(예: 표시 시작 시점부터 표시 종료 시점까지의 시간 범위)를 다르게 설정할 수 있다. 한 예로, 전자 장치는 온도 정보에 대응되는 제1 파티클(501), 습도 정보에 대응되는 제2 파티클(503), 이산화탄소 농도 정보에 대응되는 제3 파티클(505), 유기화학물질 농도 정보에 대응되는 제4 파티클(507), 및 미세먼지 농도 정보에 대응되는 제5 파티클(509)을 각각 제1 디스플레이 기간, 제2 디스플레이 기간, 제3 디스플레이 기간, 제4 디스플레이 기간, 및 제5 디스플레이 기간으로 설정할 수 있다. 상기 제1 디스플레이 기간, 제2 디스플레이 기간, 제3 디스플레이 기간, 제4 디스플레이 기간, 및 제5 디스플레이 기간은 서로 동일할 수도 있으며, 적어도 하나가 다를 수도 있다.
한 실시 예에 따르면, 전자 장치(예: 프로세서(130))는 각각의 환경 정보에 대응되는 파티클이 화면(500)에 구성되는 개수를 지정된 범위로 제한할 수 있다. 한 예로, 전자 장치는 온도 정보에 대응되는 제1 파티클(501), 습도 정보에 대응되는 제2 파티클(503), 이산화탄소 농도 정보에 대응되는 제3 파티클(505), 유기화학물질 농도 정보에 대응되는 제4 파티클(507), 및 미세먼지 농도 정보에 대응되는 제5 파티클(509)이 화면(500)에 구성되는 개수를 각각 제1 범위, 제2 범위, 제3 범위, 제4 범위, 및 제5 범위로 제한할 수 있다. 상기 제1 범위, 제2 범위, 제3 범위, 제4 범위, 및 제5 범위는 서로 동일할 수도 있으며, 적어도 하나가 다를 수도 있다.
도 6은 일 실시 예에 따른 동적 파티클을 이용한 정보 제공을 설명하기 위한 도면이다.
전자 장치(예: 전자 장치(100))는 센서(예: 센서(110))를 기반으로 전자 장치가 위치한 공간에 대한 환경 정보(예: 온도 정보, 습도 정보, 이산화탄소 농도 정보, 유기화학물질 농도 정보, 또는 미세먼지 농도 정보 등)를 획득할 수 있다. 또한, 전자 장치는 통신 회로를 통해 외부 전자 장치(예: 기상청 서버)와 연결되어, 상기 외부 전자 장치로부터 전자 장치가 위치한 공간에 대한 환경 정보 또는 상기 공간 이외의 다른 공간에 대한 환경 정보를 획득할 수도 있다. 이 경우, 전자 장치(예: 프로세서(130))는 상기 센서를 통해 획득된 환경 정보뿐만 아니라 상기 외부 전자 장치로부터 획득한 환경 정보에 기초하여 구성된, 이동 가능한 파티클을 포함하는 화면(600)(예: 미디어 아트 영상)을 디스플레이(예: 디스플레이(150))에 출력할 수 있다.
도 6을 참조하면, 전자 장치(예: 프로세서(130))는 상기 센서를 통해 획득된 환경 정보에 대응되는 파티클과 상기 외부 전자 장치로부터 획득한 환경 정보에 대응되는 파티클이 구분될 수 있도록 화면(600)을 구성할 수 있다. 한 예로, 전자 장치는 화면(600)의 중앙 영역(630)과 주변 영역(650)을 구분하는 경계선(610)을 생성하고, 경계선(610)의 내측에 해당하는 중앙 영역(630)에는 상기 센서를 통해 획득된 환경 정보에 대응되는 파티클을 배치하고, 경계선(610)의 외측에 해당하는 주변 영역(650)에는 상기 외부 전자 장치로부터 획득한 환경 정보에 대응되는 파티클을 배치할 수 있다. 또는, 전자 장치는 전자 장치가 위치한 공간에 대한 환경 정보에 대응되는 파티클을 중앙 영역(630)에 배치하고, 상기 공간과 다른 공간에 대한 환경 정보에 대응되는 파티클을 주변 영역(650)에 배치할 수도 있다.
도시된 도면에서는, 전자 장치가 위치한 제1 공간(예: 실내)의 온도 정보에 대응되는 제1 파티클(601a), 습도 정보에 대응되는 제2 파티클(603a), 이산화탄소 농도 정보에 대응되는 제3 파티클(605a), 유기화학물질 농도 정보에 대응되는 제4 파티클(607a), 및 미세먼지 농도 정보에 대응되는 제5 파티클(609a)이 화면(600)의 중앙 영역(630)에 배치되고, 상기 제1 공간과 다른 제2 공간(예: 실외)의 온도 정보에 대응되는 제6 파티클(601b), 습도 정보에 대응되는 제7 파티클(603b), 이산화탄소 농도 정보에 대응되는 제8 파티클(605b), 유기화학물질 농도 정보에 대응되는 제9 파티클(607b), 및 미세먼지 농도 정보에 대응되는 제10 파티클(609b)이 화면(600)의 주변 영역(650)에 배치된 상태를 나타낸다. 한 실시 예에 따르면, 상기 제1 공간의 환경 정보는 상기 센서를 기반으로 획득될 수 있으며, 상기 제2 공간의 환경 정보는 상기 외부 전자 장치로부터 획득될 수 있다.
한 실시 예에 따르면, 전자 장치(예: 프로세서(130))는 각각의 환경 정보가 갖는 데이터 값에 기초하여 그에 대응되는 파티클의 표시 상태를 설정할 수 있다. 한 예로, 전자 장치는 상기 제1 공간의 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 및 미세먼지 농도가 각각 높아질수록 그에 대응되는 제1 파티클(601a), 제2 파티클(603a), 제3 파티클(605a), 제4 파티클(607a), 및 제5 파티클(609a)의 개수를 증가시키거나, 이동 속도를 증가시키거나, 색상을 진하게 하거나, 크기를 크게 하거나, 테두리를 굵게 하거나, 또는 테두리의 색상을 진하게 설정할 수 있고, 상기 제2 공간의 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 및 미세먼지 농도가 각각 높아질수록 그에 대응되는 제6 파티클(601b), 제7 파티클(603b), 제8 파티클(605b), 제9 파티클(607b), 및 제10 파티클(609b)의 개수를 증가시키거나, 이동 속도를 증가시키거나, 색상을 진하게 하거나, 크기를 크게 하거나, 테두리를 굵게 하거나, 또는 테두리의 색상을 진하게 설정할 수 있다. 또한, 전자 장치는 그 역으로 상기 제1 공간의 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 및 미세먼지 농도가 각각 낮아질수록 그에 대응되는 제1 파티클(601a), 제2 파티클(603a), 제3 파티클(605a), 제4 파티클(607a), 및 제5 파티클(609a)의 개수를 감소시키거나, 이동 속도를 감소시키거나, 색상을 연하게 하거나, 크기를 작게 하거나, 테두리를 얇게 하거나, 또는 테두리의 색상을 연하게 설정할 수 있고, 상기 제2 공간의 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 및 미세먼지 농도가 각각 낮아질수록 그에 대응되는 제6 파티클(601b), 제7 파티클(603b), 제8 파티클(605b), 제9 파티클(607b), 및 제10 파티클(609b)의 개수를 감소시키거나, 이동 속도를 감소시키거나, 색상을 연하게 하거나, 크기를 작게 하거나, 테두리를 얇게 하거나, 또는 테두리의 색상을 연하게 설정할 수 있다.
한 실시 예에 따르면, 환경 정보의 종류가 동일하더라도 공간에 따라 환경 정보에 대응되는 파티클의 그래픽적 요소가 다르게 설정될 수 있다. 한 예로, 상기 제1 공간의 온도 정보에 대응되는 제1 파티클(601a)과 상기 제2 공간의 온도 정보에 대응되는 제6 파티클(601b)의 형상, 색상, 크기, 테두리의 굵기, 또는 테두리의 색상 등이 서로 다르게 설정될 수 있다.
도 7은 일 실시 예에 따른 동적 파티클의 상태 변경을 설명하기 위한 도면이다.
도 7을 참조하면, 전자 장치(예: 전자 장치(100))는 센서(예: 센서(110))를 기반으로 전자 장치가 위치한 제1 공간(예: 실내)에 대한 환경 정보를 획득하고, 통신 회로를 통해 연결된 외부 전자 장치(예: 기상청 서버)로부터 상기 제1 공간과 다른 제2 공간(예: 실외)에 대한 환경 정보를 획득할 수 있다. 또한, 전자 장치는 획득한 환경 정보에 대응되는 파티클을 화면(700)에 구성하여 디스플레이(예: 디스플레이(150))에 출력할 수 있다. 이 경우, 전자 장치는 상기 제1 공간에 대한 환경 정보에 대응되는 파티클과 상기 제2 공간에 대한 환경 정보에 대응되는 파티클이 구분되도록 화면(700)을 구성할 수 있다. 한 예로, 전자 장치는 화면(700)의 중앙 영역(740)과 주변 영역(750)을 구분하는 경계선(예: 제1 경계선(720) 또는 제2 경계선(730))을 생성하고, 상기 경계선의 내측에 해당하는 중앙 영역(740)에는 상기 제1 공간의 환경 정보에 대응되는 제1 파티클(701)을 배치하고, 상기 경계선의 외측에 해당하는 주변 영역(750)에는 상기 제2 공간의 환경 정보에 대응되는 제2 파티클(703)을 배치할 수 있다.
한 실시 예에 따르면, 전자 장치(예: 프로세서(130))는 제1 파티클(701)이 이동하더라도 중앙 영역(740)을 벗어나지 않도록(또는 주변 영역(750)을 침범하지 않도록) 제1 파티클(701)의 이동 위치를 조정할 수 있으며, 제2 파티클(703)이 이동하더라도 주변 영역(750)을 벗어나지 않도록(또는 중앙 영역(740)을 침범하지 않도록) 제2 파티클(703)의 이동 위치를 조정할 수 있다. 한 예로, 전자 장치는 제1 파티클(701)이 화면(700)의 중심점(710)으로부터 멀어지는 방향으로 이동하다가 상기 경계선을 만나면 중심점(710)과 가까워지는 방향 또는 상기 경계선을 따라 이동할 수 있도록 제1 파티클(710)의 이동 위치를 조정할 수 있다. 또 다른 예로, 전자 장치는 제2 파티클(703)이 화면(700)의 중심점(710)과 가까워지는 방향으로 이동하다가 상기 경계선을 만나면 중심점(710)으로부터 멀어지는 방향 또는 상기 경계선을 따라 이동할 수 있도록 제2 파티클(703)의 이동 위치를 조정할 수 있다.
한 실시 예에 따르면, 전자 장치(예: 프로세서(130))는 화면(700)의 중앙 영역(740)과 주변 영역(750) 사이에 완충 영역(760)을 설정할 수도 있다. 예컨대, 전자 장치는 화면(700)의 중심점(710)으로부터 제1 거리(또는 제1 반경)만큼 이격된 위치에 제1 경계선(720)을 생성하고, 상기 제1 거리보다 큰 제2 거리(또는 제2 반경)만큼 이격된 위치에 제2 경계선(730)을 생성할 수 있다. 이에 따라, 제1 경계선(720)의 내측에는 중앙 영역(740)이 할당되고, 제1 경계선(720)과 제2 경계선(730) 사이에는 완충 영역(760)이 할당되며, 제2 경계선(730)의 외측에는 주변 영역(750)이 할당될 수 있다.
한 실시 예에 따르면, 전자 장치(예: 프로세서(130))는 중앙 영역(740)에 배치된 제1 파티클(701)이 중앙 영역(740)을 벗어나 완충 영역(760)까지 이동할 수 있도록 제1 파티클(701)의 이동 위치를 설정할 수 있다. 또한, 전자 장치는 주변 영역(750)에 배치된 제2 파티클(703)이 주변 영역(750)을 벗어나 완충 영역(760)까지 이동할 수 있도록 제2 파티클(703)의 이동 위치를 설정할 수 있다. 한 실시 예에 따르면, 전자 장치는 제1 파티클(701)이 완충 영역(760)까지 이동하더라도 주변 영역(750)을 침범하지 않도록 제1 파티클(701)의 이동 위치를 조정할 수 있으며, 제2 파티클(703)이 완충 영역(760)까지 이동하더라도 중앙 영역(740)을 침범하지 않도록 제2 파티클(701)의 이동 위치를 조정할 수 있다.
한 실시 예에 따르면, 전자 장치(예: 프로세서(130))는 화면(700)의 중앙 영역(740), 주변 영역(750), 및 완충 영역(760) 각각에서의 파티클의 이동 속도를 다르게 설정할 수 있다. 한 예로, 전자 장치는 완충 영역(760)으로 들어온 파티클의 이동 속도를 감소시킬 수 있다. 예컨대, 전자 장치는 제1 파티클(701)이 중앙 영역(740)에서 제1 속도로 이동하다가 완충 영역(760)으로 들어오면 상기 제1 속도보다 낮은 제2 속도로 이동시킬 수 있으며, 제2 파티클(703)이 주변 영역(750)에서 제3 속도로 이동하다가 완충 영역(760)으로 들어오면 상기 제3 속도보다 낮은 제4 속도로 이동시킬 수 있다. 또한, 전자 장치는 제1 파티클(701)이 완충 영역(760)에서 상기 제2 속도로 이동하다가 다시 중앙 영역(740)으로 들어오면 상기 제1 속도로 이동시킬 수 있으며, 제2 파티클(703)이 완충 영역(760)에서 상기 제4 속도로 이동하다가 다시 주변 영역(750)으로 들어오면 상기 제3 속도로 이동시킬 수도 있다.
한 실시 예에 따르면, 전자 장치(예: 프로세서(130))는 화면(700)의 중심점(710)으로부터의 이격 거리(예: 가로 방향 거리(d1)(770) 또는 세로 방향 거리(d2)(780))에 따라 파티클의 이동 속도를 다르게 설정할 수도 있다. 한 예로, 전자 장치는 가로 방향 거리(770)가 멀어질수록 또는 세로 방향 거리(780)가 멀어질수록 파티클의 이동 속도를 감소시킬 수 있다. 또는, 전자 장치는 가로 방향 거리(770) 및 세로 방향 거리(780)를 이용해 중심점(710)으로부터의 이격 거리를 산출하고, 중심점(710)으로부터의 이격 거리가 멀어질수록 파티클의 이동 속도를 감소시킬 수도 있다.
도 8은 일 실시 예에 따른 사용자의 움직임에 따른 화면 제어를 설명하기 위한 도면이다.
도 8을 참조하면, 전자 장치(800)(예: 전자 장치(100))는 카메라(810)를 통해 사용자(890)를 촬영하고, 촬영된 영상을 분석하여 사용자(890)의 움직임을 판단할 수 있다. 예를 들어, 전자 장치(800)는 상기 영상에 포함된 특징점들 중 사용자(890)에 대응되는 특징점을 추적하여 사용자(890)의 이동 방향 및 이동 속도를 판단할 수 있다.
한 실시 예에 따르면, 전자 장치(800)는 사용자(890)의 움직임에 따라 디스플레이(830)에 출력된 파티클(831)의 이동 방향 및 이동 속도를 설정할 수 있다. 예를 들어, 전자 장치(800)는 사용자(890)의 위치 변화에 대응되도록 파티클(831)의 위치를 변경시킬 수 있다. 다양한 실시 예에 따르면, 전자 장치(800)는 사용자(890)의 신체 일부(891)(예: 손)에 대한 움직임을 판단하고, 사용자(890)의 신체 일부(891)의 움직임에 따라 파티클(831)의 이동 방향 및 이동 속도를 설정할 수도 있다. 도시된 도면에서와 같이, 전자 장치(800)는 사용자(890)의 손(891)이 디스플레이(830)의 화면과 근접한 상태에서 이동하면, 손(891)과 근접한 화면 영역에 배치된 파티클(831)을 손(891)의 이동 방향(893) 및 이동 속도에 맞춰 이동시킬 수 있다. 예컨대, 사용자(890)의 손(891)이 제1 방향(893)으로 제1 속도로 이동하면, 전자 장치(800)는 파티클(831)을 제1 방향(893)과 동일 또는 유사한 제2 방향(833)으로 상기 제1 속도와 동일 또는 유사한 제2 속도로 이동시킬 수 있다.
한 실시 예에 따르면, 전자 장치(800)는 파티클(831)이 도 6 또는 도 7에 도시된 바와 같이, 경계선에 의해 구분된 영역 내에서만 이동되도록 설정된 경우, 사용자(890)의 움직임(또는 사용자(890)의 신체 일부(891)의 움직임)에 따라 이동되는 파티클(831)이 지정된 영역 내에서만 이동되도록 파티클(831)의 이동 위치를 조정할 수 있다. 예컨대, 전자 장치(800)는 사용자(890)의 움직임(또는 사용자(890)의 신체 일부(891)의 움직임)이 화면에 설정된 경계선(예: 경계선(610, 720, 730))을 지나가더라도, 각 영역(예: 중앙 영역 또는 주변 영역)에 배치된 파티클이 상기 경계선을 넘지 못하도록 파티클의 이동 위치를 조정할 수 있다.
도 9는 일 실시 예에 따른 정보 제공을 위한 화면을 설명하기 위한 도면이다.
도 9를 참조하면, 전자 장치(예: 전자 장치(100))는 입력 장치(예: 마이크, 터치 센서, 또는 물리 버튼 등) 또는 센서(예: 센서(110))를 통해 사용자의 인터랙션을 획득할 수 있다. 한 예로, 전자 장치(예: 프로세서(130))는 상기 마이크를 통해 사용자의 음성을 획득하거나, 상기 터치 센서를 통해 사용자의 터치 입력을 획득하거나, 또는 상기 물리 버튼으로부터 발생된 신호를 수신할 수 있다. 또 다른 예로, 전자 장치(예: 프로세서(130))는 상기 센서(예: 근접 센서)를 통해 사용자의 근접을 판단(감지)할 수 있다.
전자 장치(예: 프로세서(130))는 상기 사용자의 인터랙션이 지정된 조건을 만족하는지를 판단할 수 있다. 한 예로, 전자 장치는 상기 입력 장치 또는 상기 센서를 통해 획득된 상기 사용자의 인터랙션이 외부 환경에 대한 상세 정보의 출력과 관련된 사용자 입력인지를 판단할 수 있다. 예컨대, 전자 장치는 상기 마이크를 통해 수신된 음성 데이터에 대한 음성 인식을 수행하고, 상기 음성 인식의 결과에 상기 외부 환경에 대한 상세 정보의 출력을 명령하는 문구를 포함하는지를 판단할 수 있다. 또는, 전자 장치는 상기 터치 센서를 통해 획득된 터치 입력을 분석하고, 분석된 결과에 기초하여 상기 터치 입력이 상기 외부 환경에 대한 상세 정보를 출력하도록 설정된 표시 객체를 선택하는 사용자 입력인지를 판단할 수 있다. 또는, 전자 장치는 상기 물리 버튼이 상기 외부 환경에 대한 상세 정보를 출력하도록 설정된 물리 버튼인지를 판단할 수 있다. 또 다른 예로, 전자 장치는 상기 센서(예: 근접 센서)를 통해 사용자가 지정된 거리 내로 근접하였는지를 판단할 수 있다.
한 실시 예에 따르면, 전자 장치(예: 프로세서(130))는 상기 사용자의 인터랙션이 지정된 조건을 만족하면, 외부 환경에 대한 상세 정보를 포함하는 화면(900)을 디스플레이(예: 디스플레이(150))에 출력할 수 있다. 상기 외부 환경에 대한 상세 정보를 포함하는 화면(900)은 전자 장치가 위치한 공간에 대한 전체적인 환경 지수를 포함할 수 있다. 예컨대, 도시된 도면에서와 같이, 상기 외부 환경에 대한 상세 정보를 포함하는 화면(900)은 상기 공간의 위치 정보(910), 화면(900)에 구성되는 정보의 명칭(930), 환경 지수(950), 또는 환경에 대한 평가 정보(970)를 포함할 수 있다.
상기 공간의 위치 정보(910)는 예를 들어, 전자 장치가 위치한 공간을 나타내는 이미지 및/또는 텍스트를 포함할 수 있다. 환경 지수(950)는 상기 공간에 대한 환경 평가를 백분율로 나타낸 정보를 포함할 수 있다. 예를 들어, 환경 지수(950)는 상기 공간의 온도, 습도, 이산화탄소 농도, 유기화학물질 농도, 또는 미세먼지 농도가 지정된 범위 내에 포함되는지 또는 지정된 범위를 얼마나 벗어나는지에 따라 결정되는 수치 정보일 수 있다. 환경에 대한 평가 정보(970)는 환경 지수(950)에 기초하여 상기 공간에 대한 환경이 사용자에게 미치는 영향을 단계적으로 나타낸 정보를 포함할 수 있다. 예컨대, 환경에 대한 평가 정보(970)는 환경 지수(950)가 제1 값 미만이면 "나쁨", 제2 값 이상이면 "좋음", 상기 제1 값 이상이고 상기 제2 값 미만이면 "보통" 등으로 표시될 수 있다. 그러나, 환경에 대한 평가 정보(970)가 이에 한정되는 것은 아니다. 다양한 실시 예에 따르면, 환경에 대한 평가 정보(970)는 더 많은 단계로 세분화될 수도 있다.
도 10은 일 실시 예에 따른 정보 제공을 위한 다른 화면을 설명하기 위한 도면이다.
도 10을 참조하면, 전자 장치(예: 전자 장치(100))는 입력 장치(예: 마이크, 터치 센서, 또는 물리 버튼 등) 또는 센서(예: 센서(110))를 통해 사용자의 인터랙션을 획득하고, 상기 사용자의 인터랙션이 지정된 조건을 만족하면 외부 환경에 대한 상세 정보를 포함하는 화면(1000)을 디스플레이(예: 디스플레이(150))에 출력할 수 있다.
한 실시 예에 따르면, 전자 장치(예: 프로세서(130))는 환경 정보의 종류 별로 구분하여 화면(1000)을 구성할 수 있다. 한 예로, 전자 장치는 온도 정보, 습도 정보, 이산화탄소 농도 정보, 유기화학물질 농도 정보, 또는 미세먼저 농도 정보가 구분될 수 있도록 화면(1000)을 구성할 수 있다. 도시된 도면에서와 같이, 상기 외부 환경에 대한 상세 정보를 포함하는 화면(1000) 온도 정보의 명칭/단위(1011), 온도 값(1013), 습도 정보의 명칭/단위(1031), 습도 값(1033), 이산화탄소 농도 정보의 명칭/단위(1051), 이산화탄소 농도 값(1053), 유기화학물질 농도 정보의 명칭/단위(1071), 유기화학물질의 농도 값(1073), 미세먼지 농도 정보의 명칭/단위(1091), 또는 미세먼지 농도 값(1093)을 포함할 수 있다.
한 실시 예에 따르면, 온도 정보의 명칭/단위(1011), 습도 정보의 명칭/단위(1031), 이산화탄소 농도 정보의 명칭/단위(1051), 유기화학물질 농도 정보의 명칭/단위(1071), 또는 미세먼지 농도 정보의 명칭/단위(1091)는 텍스트 형식으로 표현될 수 있으며, 온도 값(1013), 습도 값(1033), 이산화탄소 농도 값(1053), 유기화학물질의 농도 값(1073), 또는 미세먼지 농도 값(1093)은 텍스트 및/또는 그래프 등의 형식으로 표현될 수 있다.
한 실시 예에 따르면, 상기 사용자의 인터랙션이 지정된 조건을 만족하면 전자 장치는 도 9에 도시된 화면(900) 또는 도 10에 도시된 화면(1000)을 선택적으로 출력할 수도 있으며, 순차적으로 출력할 수도 있다. 한 예로, 전자 장치는 도 9에 도시된 화면(900)을 출력하고 지정된 시간이 경과하면 도 10에 도시된 화면(1000)을 출력할 수도 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다.
다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리(170))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(130))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다.
컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체 (예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다.
다양한 실시 예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예에 따른, 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.

Claims (20)

  1. 전자 장치에 있어서,
    외부 환경을 감지하기 위한 센서;
    적어도 하나의 이동 가능한 파티클을 포함하는 제1 화면을 출력하는 디스플레이;
    메모리; 및
    상기 센서, 상기 디스플레이, 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하고,
    상기 메모리는, 실행 시에, 상기 프로세서가,
    상기 센서를 통해 상기 외부 환경을 측정한 제1 정보를 획득하고,
    상기 제1 정보를 분석한 결과에 기초하여 상기 적어도 하나의 이동 가능한 파티클 중 제1 파티클의 표시 상태를 변경하도록 하는 인스트럭션들을 저장하는 것을 특징으로 하는 전자 장치.
  2. 청구항 1에 있어서,
    상기 메모리는, 실행 시에, 상기 프로세서가,
    상기 제1 정보의 속성에 따라 상기 제1 파티클의 모양, 크기, 색상, 및 디스플레이 기간 중 적어도 하나를 다르게 설정하도록 하는 인스트럭션들을 저장하는 것을 특징으로 하는 전자 장치.
  3. 청구항 2에 있어서,
    상기 메모리는, 실행 시에, 상기 프로세서가,
    상기 제1 정보의 속성별로 측정된 값에 기초하여 상기 제1 파티클의 위치, 개수, 및 이동 속도 중 적어도 하나를 다르게 설정하도록 하는 인스트럭션들을 저장하는 것을 특징으로 하는 전자 장치.
  4. 청구항 1에 있어서,
    카메라를 더 포함하고,
    상기 메모리는, 실행 시에, 상기 프로세서가,
    상기 카메라를 통해 사용자를 촬영한 영상을 획득하고,
    상기 영상을 분석한 결과에 기초하여 상기 사용자의 움직임을 판단하고,
    상기 움직임의 방향 및 속도에 기초하여 상기 제1 파티클의 이동 방향 및 이동 속도를 설정하도록 하는 인스트럭션들을 저장하는 것을 특징으로 하는 전자 장치.
  5. 청구항 1에 있어서,
    사용자의 인터랙션을 위한 인터페이스를 더 포함하고,
    상기 메모리는, 실행 시에, 상기 프로세서가,
    상기 인터페이스를 통해 상기 사용자의 인터랙션을 획득하고,
    상기 사용자의 인터랙션이 지정된 조건을 만족하면, 상기 디스플레이를 통해 상기 제1 정보에 대한 상세 정보를 포함하는 제2 화면을 출력하도록 하는 인스트럭션들을 저장하는 것을 특징으로 하는 전자 장치.
  6. 청구항 5에 있어서,
    상기 인터페이스는,
    상기 사용자의 접근을 감지하는 근접 센서, 상기 사용자의 음성을 수신하는 마이크, 상기 사용자의 터치 입력을 획득하는 터치 센서, 및 상기 사용자의 버튼 입력에 대응하여 신호를 발생시키는 물리 버튼 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 장치.
  7. 청구항 1에 있어서,
    외부 전자 장치와의 통신을 위한 통신 회로를 더 포함하고,
    상기 메모리는, 실행 시에, 상기 프로세서가,
    상기 통신 회로를 통해 상기 외부 전자 장치로부터 다른 외부 환경을 측정한 제2 정보를 획득하고,
    상기 제2 정보를 분석한 결과에 기초하여 상기 적어도 하나의 이동 가능한 파티클 중 제2 파티클의 표시 상태를 변경하도록 하는 인스트럭션들을 저장하는 것을 특징으로 하는 전자 장치.
  8. 청구항 7에 있어서,
    상기 메모리는, 실행 시에, 상기 프로세서가,
    상기 제1 파티클이 상기 제1 화면의 제1 영역에서만 이동 가능하도록 설정하고,
    상기 제2 파티클이 상기 제1 영역을 둘러싸도록 외측에 위치하는 제2 영역에서만 이동 가능하도록 설정하는 인스트럭션들을 저장하는 것을 특징으로 하는 전자 장치.
  9. 청구항 7에 있어서,
    상기 메모리는, 실행 시에, 상기 프로세서가,
    상기 제2 정보의 속성에 따라 상기 제2 파티클의 모양, 크기, 색상, 및 디스플레이 기간 중 적어도 하나를 다르게 설정하도록 하는 인스트럭션들을 저장하는 것을 특징으로 하는 전자 장치.
  10. 청구항 9에 있어서,
    상기 메모리는, 실행 시에, 상기 프로세서가,
    상기 제2 정보의 속성별로 측정된 값에 기초하여 상기 제2 파티클의 위치, 개수, 및 이동 속도 중 적어도 하나를 다르게 설정하도록 하는 인스트럭션들을 저장하는 것을 특징으로 하는 전자 장치.
  11. 전자 장치의 화면 제어 방법에 있어서,
    적어도 하나의 이동 가능한 파티클을 포함하는 제1 화면을 디스플레이에 출력하는 동작;
    센서를 통해 외부 환경을 측정한 제1 정보를 획득하는 동작; 및
    상기 제1 정보를 분석한 결과에 기초하여 상기 적어도 하나의 이동 가능한 파티클 중 제1 파티클의 표시 상태를 변경하는 동작을 포함하는 것을 특징으로 하는 화면 제어 방법.
  12. 청구항 11에 있어서,
    상기 제1 정보의 속성에 따라 상기 제1 파티클의 모양, 크기, 색상, 및 디스플레이 기간 중 적어도 하나를 다르게 설정하는 동작을 더 포함하는 것을 특징으로 하는 화면 제어 방법.
  13. 청구항 12에 있어서,
    상기 제1 정보의 속성별로 측정된 값에 기초하여 상기 제1 파티클의 위치, 개수, 및 이동 속도 중 적어도 하나를 다르게 설정하는 동작을 더 포함하는 것을 특징으로 하는 화면 제어 방법.
  14. 청구항 11에 있어서,
    카메라를 통해 사용자를 촬영한 영상을 획득하는 동작;
    상기 영상을 분석한 결과에 기초하여 상기 사용자의 움직임을 판단하는 동작; 및
    상기 움직임의 방향 및 속도에 기초하여 상기 제1 파티클의 이동 방향 및 이동 속도를 설정하는 동작을 더 포함하는 것을 특징으로 하는 화면 제어 방법.
  15. 청구항 11에 있어서,
    인터페이스를 통해 사용자의 인터랙션을 획득하는 동작; 및
    상기 사용자의 인터랙션이 지정된 조건을 만족하면, 상기 제1 정보에 대한 상세 정보를 포함하는 제2 화면을 상기 디스플레이에 출력하는 동작을 더 포함하는 것을 특징으로 하는 화면 제어 방법.
  16. 청구항 15에 있어서,
    상기 사용자의 인터랙션을 획득하는 동작은,
    근접 센서를 통해 상기 사용자의 접근을 감지하는 동작;
    마이크를 통해 상기 사용자의 음성을 획득하는 동작;
    터치 센서를 통해 상기 사용자의 터치 입력을 획득하는 동작; 또는
    물리 버튼으로부터 상기 사용자의 버튼 입력에 대응하여 발생된 신호를 수신하는 동작을 포함하는 것을 특징으로 하는 화면 제어 방법.
  17. 청구항 11에 있어서,
    통신 회로를 통해 외부 전자 장치로부터 다른 외부 환경을 측정한 제2 정보를 획득하는 동작; 및
    상기 제2 정보를 분석한 결과에 기초하여 상기 적어도 하나의 이동 가능한 파티클 중 제2 파티클의 표시 상태를 변경하는 동작을 더 포함하는 것을 특징을 하는 화면 제어 방법.
  18. 청구항 17에 있어서,
    상기 제1 파티클이 상기 제1 화면의 제1 영역에서만 이동 가능하도록 설정하는 동작; 및
    상기 제2 파티클이 상기 제1 영역을 둘러싸도록 외측에 위치하는 제2 영역에서만 이동 가능하도록 설정하는 동작을 더 포함하는 것을 특징으로 하는 화면 제어 방법.
  19. 청구항 17에 있어서,
    상기 제2 정보의 속성에 따라 상기 제2 파티클의 모양, 크기, 색상, 및 디스플레이 기간 중 적어도 하나를 다르게 설정하는 동작을 더 포함하는 것을 특징으로 하는 화면 제어 방법.
  20. 청구항 19에 있어서,
    상기 제2 정보의 속성별로 측정된 값에 기초하여 상기 제2 파티클의 위치, 개수, 및 이동 속도 중 적어도 하나를 다르게 설정하는 동작을 더 포함하는 것을 특징으로 하는 화면 제어 방법.
KR1020170030192A 2017-03-09 2017-03-09 화면 제어 방법 및 이를 지원하는 전자 장치 KR20180104224A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020170030192A KR20180104224A (ko) 2017-03-09 2017-03-09 화면 제어 방법 및 이를 지원하는 전자 장치
CN201810198168.6A CN108572588A (zh) 2017-03-09 2018-03-09 画面控制方法以及支持所述画面控制方法的电子设备
US15/916,904 US11023347B2 (en) 2017-03-09 2018-03-09 Screen control method and electronic device supporting the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170030192A KR20180104224A (ko) 2017-03-09 2017-03-09 화면 제어 방법 및 이를 지원하는 전자 장치

Publications (1)

Publication Number Publication Date
KR20180104224A true KR20180104224A (ko) 2018-09-20

Family

ID=63444676

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170030192A KR20180104224A (ko) 2017-03-09 2017-03-09 화면 제어 방법 및 이를 지원하는 전자 장치

Country Status (3)

Country Link
US (1) US11023347B2 (ko)
KR (1) KR20180104224A (ko)
CN (1) CN108572588A (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200118949A (ko) 2019-04-09 2020-10-19 삼성전자주식회사 휴대용 공기질 측정 장치 및 그 공기질 관련 정보 표시 방법
CN111914104A (zh) * 2020-08-07 2020-11-10 杭州栖金科技有限公司 影音特效处理方法、设备及机器可读存储介质
CN115599809B (zh) * 2022-11-16 2023-03-28 泽恩科技有限公司 基于粒子群优化算法的数据库布局设计方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2715405B2 (ja) * 1985-05-31 1998-02-18 カシオ計算機株式会社 グラフ表示制御装置及びグラフ表示制御方法
GB8919151D0 (en) * 1989-08-23 1990-04-25 Smiths Industries Plc Monitoring systems
EP2149081B1 (en) * 2007-04-17 2019-06-12 Luminex Corporation Graphical user interface for analysis and comparison of location-specific multiparameter data sets
US8584030B2 (en) * 2009-09-29 2013-11-12 Honeywell International Inc. Systems and methods for displaying HVAC information
US8196085B1 (en) * 2010-01-19 2012-06-05 Altera Corporation Interactive design optimization techniques and interface
US8577505B2 (en) * 2010-01-27 2013-11-05 Honeywell International Inc. Energy-related information presentation system
US8499257B2 (en) * 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
CN102568025B (zh) * 2010-12-20 2013-09-04 福建星网视易信息系统有限公司 在显示器中使3d对象运动而不重叠的方法和显示系统
US9569064B2 (en) * 2011-06-28 2017-02-14 Avaya Inc. System and method for a particle system based user interface
US9016593B2 (en) * 2011-07-11 2015-04-28 Ecobee, Inc. HVAC controller with dynamic temperature compensation
WO2012151826A1 (zh) * 2011-07-20 2012-11-15 中兴通讯股份有限公司 动态墙纸生成方法及装置
US10114679B2 (en) * 2011-10-26 2018-10-30 Microsoft Technology Licensing, Llc Logical CPU division usage heat map representation
AU2013239179B2 (en) * 2012-03-26 2015-08-20 Apple Inc. Enhanced virtual touchpad and touchscreen
US8941656B2 (en) * 2012-12-28 2015-01-27 International Business Machines Corporation Spatiotemporal visualization of sensor data
US20140210639A1 (en) * 2013-01-29 2014-07-31 James Skourlis Central alarm (ca) unit in a gas monitoring system including gas sensors and gas sensor controllers
US9070227B2 (en) * 2013-03-04 2015-06-30 Microsoft Technology Licensing, Llc Particle based visualizations of abstract information
US9103805B2 (en) * 2013-03-15 2015-08-11 Leeo, Inc. Environmental measurement display system and method
KR102119882B1 (ko) * 2014-02-26 2020-06-08 삼성디스플레이 주식회사 유기 전계 발광 표시 장치 및 이의 구동 방법
US9813512B2 (en) * 2015-04-20 2017-11-07 Agverdict, Inc. Systems and methods for efficiently generating a geospatial data map for use in agricultural operations
CN104880942B (zh) * 2015-06-15 2019-01-15 Oppo广东移动通信有限公司 一种智能手表的显示方法和装置
CN105117124B (zh) * 2015-08-10 2021-04-13 联想(北京)有限公司 一种窗口处理方法及系统
US10248146B2 (en) * 2015-10-14 2019-04-02 Honeywell International Inc. System for dynamic control with interactive visualization to optimize energy consumption

Also Published As

Publication number Publication date
CN108572588A (zh) 2018-09-25
US11023347B2 (en) 2021-06-01
US20180260295A1 (en) 2018-09-13

Similar Documents

Publication Publication Date Title
US11418706B2 (en) Adjusting motion capture based on the distance between tracked objects
US9514574B2 (en) System and method for determining the extent of a plane in an augmented reality environment
US11887246B2 (en) Generating ground truth datasets for virtual reality experiences
KR102636243B1 (ko) 이미지를 처리하기 위한 방법 및 그 전자 장치
JP2016038889A (ja) モーション感知を伴う拡張現実
US9671873B2 (en) Device interaction with spatially aware gestures
KR20160144851A (ko) 이미지를 처리하는 전자 장치 및 그 제어 방법
KR20180042551A (ko) 전자 장치 및 그의 제어 방법
KR102546510B1 (ko) 복수의 입력 간에 매핑된 정보 제공 방법 및 이를 지원하는 전자 장치
KR102337209B1 (ko) 주변 상황 정보를 통지하기 위한 방법, 전자 장치 및 저장 매체
KR20180015480A (ko) 로봇 장치 및 로봇 장치의 감정 표현 방법
KR20180104224A (ko) 화면 제어 방법 및 이를 지원하는 전자 장치
US8854393B2 (en) Information processing device, information processing method, and program
CN111670004A (zh) 用于测量心率的电子装置和方法
US20230300290A1 (en) Information display system, information display method, and non-transitory recording medium
KR20180111242A (ko) 채색 가능한 콘텐트를 제공하는 전자 장치 및 그 방법
US9898183B1 (en) Motions for object rendering and selection
CN111902849A (zh) 在图像上叠加传感器及其检测区域的虚拟表示
KR101558094B1 (ko) 직관적인 핸드 모션에 기반한 멀티-모달 시스템 및 그 제어 방법
US20240135633A1 (en) Generating ground truth datasets for virtual reality experiences
KR20240035281A (ko) 현실 공간에서 객체를 제어하는 증강 현실 서비스를 제공하는 증강 현실 디바이스 및 그 동작 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
E601 Decision to refuse application
E801 Decision on dismissal of amendment