KR102187856B1 - 사용자 인터페이스 표시 방법 및 장치 - Google Patents

사용자 인터페이스 표시 방법 및 장치 Download PDF

Info

Publication number
KR102187856B1
KR102187856B1 KR1020200100716A KR20200100716A KR102187856B1 KR 102187856 B1 KR102187856 B1 KR 102187856B1 KR 1020200100716 A KR1020200100716 A KR 1020200100716A KR 20200100716 A KR20200100716 A KR 20200100716A KR 102187856 B1 KR102187856 B1 KR 102187856B1
Authority
KR
South Korea
Prior art keywords
touch
screen
scroll bar
window
displaying
Prior art date
Application number
KR1020200100716A
Other languages
English (en)
Other versions
KR20200098458A (ko
Inventor
윤성진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020200100716A priority Critical patent/KR102187856B1/ko
Publication of KR20200098458A publication Critical patent/KR20200098458A/ko
Application granted granted Critical
Publication of KR102187856B1 publication Critical patent/KR102187856B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

사용자 인터페이스 표시 방법에 있어서, 하나 이상의 설정 항목들을 포함하는 조작부 창을 화면에 표시하는 과정과; 상기 화면에 표시된 조작부 창의 상기 하나 이상의 설정 항목들 중 제1 항목에 입력 발생 시, 상기 화면에 표시된 조작부 창의 상기 제1 항목을 제외한 적어도 일부 또는 나머지 부분을 상기 화면에 표시하지 않는 과정을 포함함을 특징으로 한다.

Description

사용자 인터페이스 표시 방법 및 장치{METHOD AND APPARATUS FOR DISPLAYING USER INTERFACE}
본 발명은 화면 표시 기술에 관한 것으로, 특히 사용자 인터페이스 표시 방법 및 장치에 관한 것이다.
최근 들어, 전자 기술의 급속한 발전으로 컴퓨터, 노트북, 태블릿(Tablet) PC, 네비게이션, 스마트폰, 휴대폰 등의 전자 기기의 기능이 다양화되고 있으며, 현재 출시되는 전자 기기는 사용자 편의를 위한 다양한 사용자 인터페이스(UI; User Interface)를 제공하고 있다. 상기 사용자 인터페이스는 간편한 조작을 통해 빠르고 직관적인 정보 전달을 할 수 있는 이점을 가지고 있다. 이에 따라 최근에는 사용자가 전자기기를 편리하게 사용할 수 있도록, 상기 사용자 인터페이스 관련 기술의 개발이 활발하게 이루어지고 있다.
현재 일반적으로 적용되고 있는 사용자 인터페이스 기술 중 사용자 인터페이스 표시와 관련된 기술에는 사용자가 작업환경에 필요한 조작부를 띄우면 전체화면 또는 부분화면으로 상기 조작부를 표시하도록 하는 기술이 있다.
또한 사용자 인터페이스 표시와 관련된 종래 기술에는 국내공개특허 제 2010-0041444호(명칭; 터치 스크린에서 선택된 정보에 대응하는 부가정보를 포함하는 투명 팝업을 표시하는 방법 및 장치, 발명자; 조태균, 출원인; 삼성전자, 공개일; 2011년 11월 09일)가 있으며, 이는 표시된 팝업을 닫지 않으면서 표시된 팝업과 동일한 영역에 위치하는 정보에 대응하는 부가 정보를 포함하는 투명 팝업을 표시하는 기술을 개시한다.
상기 종래의 사용자 인터페이스 표시 기술은 사용자가 조작하기 위한 화면을 전체화면 또는 부분화면으로 제공하여, 사용자가 제공되는 조작 화면을 닫거나 이동시켜 조작화면 아래의 내용을 확인해야 한다. 예를 들어, 도 1과 같이 홈 화면에서 알림바(Notification-bar)를 내려 화면의 밝기를 조작하는 경우, 실제로 설정한 밝기의 홈 화면을 확인할 수 없어서, 다시 밝기를 조작해야 하는 경우가 발생한다. 또한 도 2와 같이, 사각형의 속성을 변경하기 위해 팝업 메뉴를 생성하면 전체 또는 일부를 가리게 되어 적용하고자 하는 색상이 제대로 반영되었는지를 확인하기 위해서는 팝업 메뉴를 이동시키는 부가적인 동작이 필요하다.
따라서, 본 발명의 목적은, 사용자가 화면 위에 조작을 위한 화면을 띄웠을 때, 조작을 위한 화면으로 가려지는 부분을 최소화하기 위한 사용자 인터페이스 표시 방법 및 장치를 제공함에 있다. 이에 따라, 사용자가 작업 화면 위에 추가적인 조작을 위한 화면을 띄웠을 때, 상기 추가적인 조작을 위한 화면을 이동시키는 별도의 수고 없이 원하는 조작을 하고, 그 조작이 반영되는 화면을 바로 확인할 수 있도록 하기 위함이다.
상기한 목적을 달성하기 위하여 본 발명의 일 견지에 따르면, 사용자 인터페이스 표시 방법에 있어서, 하나 이상의 설정 항목들을 포함하는 조작부 창을 화면에 표시하는 과정과; 상기 화면에 표시된 조작부 창의 상기 하나 이상의 설정 항목들 중 제1 항목에 입력 발생 시, 상기 화면에 표시된 조작부 창의 상기 제1 항목을 제외한 적어도 일부 또는 나머지 부분을 상기 화면에 표시하지 않는 과정을 포함함을 특징으로 한다.
상기한 목적을 달성하기 위하여 본 발명의 다른 견지에 따르면, 사용자 인터페이스 표시 장치에 있어서, 사용자의 조작을 입력 받는 입력부와; 응용 프로그램의 실행 영상과 동작 상태 및 메뉴 상태를 디스플레이하는 표시부와; 상기 표시부에 하나 이상의 설정 항목들을 포함하는 조작부 창을 표시하며, 상기 입력부를 통한 입력에 따라 상기 표시부에 표시된 상기 조작부 창의 상기 하나 이상의 설정 항목들 중 제1 항목에 상기 입력 발생 시, 상기 표시부에 표시된 상기 조작부 창의 상기 제1 항목을 제외한 적어도 일부 또는 나머지 부분을 상기 표시부에 표시하지 않도록 제어하는 제어부를 포함함을 특징으로 한다.
상기한 바와 같이, 본 발명에 따른 사용자 인터페이스 표시 방법 및 장치를 사용함으로서, 사용자가 화면 위에 조작을 위한 화면을 띄웠을 때, 조작을 위한 화면으로 가려지는 부분을 최소화할 수 있다. 이에 따라, 팝업 메뉴가 아래그림을 가리지 않도록 이동하는 조작과 같은 부가적인 사용자의 동작을 막을 수 있다. 또한 조작과 실제 반영되는 화면을 바로바로 확인할 수 있는 이점을 가지고 있다.
도 1은 종래 기술의 일 실시예에 따른 사용자 인터페이스 표시 동작을 나타낸 예시도
도 2는 종래 기술의 다른 실시예에 따른 사용자 인터페이스 표시 동작을 나타낸 예시도
도 3은 본 발명의 일 실시예에 따른 사용자 인터페이스 표시 동작을 수행하는 휴대 단말 장치의 구성도
도 4는 본 발명의 일 실시예에 따른 사용자 인터페이스 표시 동작의 흐름도
도 5는 본 발명의 일 실시예에 따른 손 터치에 따른 사용자 인터페이스 표시를 나타낸 예시도
도 6은 본 발명의 일 실시예에 따른 마우스 입력에 따른 사용자 인터페이스 표시를 나타낸 예시도
도 7은 본 발명의 다른 실시예에 따른 마우스 입력에 따른 사용자 인터페이스 표시를 나타낸 예시도
이하 본 발명에 따른 바람직한 실시예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 조작부 창, 제1 항목 등과 같은 명칭, 구성 소자 등의 특정 사항들이 나타나고 있는데 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술 분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.
도 3은 본 발명의 일 실시예에 따른 사용자 인터페이스 표시 동작을 수행하는 휴대 단말 장치의 구성도이다. 도 3을 참조하면, 휴대 단말 장치(100)는 제어부(110), 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원공급부(180) 및 표시부(190)를 포함한다. 서브통신 모듈(130)은 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나를 포함하고, 멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 및 동영상재생 모듈(143) 중 적어도 하나를 포함한다. 카메라 모듈(150)은 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함하고, 입/출력 모듈(160; 입력부/출력부라고도 함)은 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 키패드(166) 및 이어폰 연결잭(Earphone Connecting Jack, 167) 중 적어도 하나를 포함한다. 이하에서는 상기 표시부(190) 및 디스플레이 컨트롤러(195)가 각각 터치스크린 및 터치스크린 컨트롤러인 경우를 예로 들어 설명한다.
전원공급부(180)는 제어부(110)의 제어에 따라 휴대 단말 장치(100)의 하우징에 배치되는 하나 또는 복수의 배터리(도시되지 아니함)에 전원을 공급할 수 있다. 하나 또는 복수의 배터리(도시되지 아니함)는 휴대 단말 장치(100)에 전원을 공급한다. 또한, 전원공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원소스(도시되지 아니함)에서부터 입력되는 전원을 휴대 단말 장치(100)로 공급할 수 있다. 또한, 전원공급부(180)는 무선 충전 기술을 통해 외부의 전원소스로부터 무선으로 입력되는 전원을 휴대 단말 장치(100)로 공급할 수도 있다.
카메라 모듈(150)은 제어부(110)의 제어에 따라 정지이미지 또는 동영상을 촬영하는 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 또는 동영상재생 모듈(143)을 포함할 수 있다. 방송통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나(도시되지 아니함)를 통해 방송국에서부터 송출되는 방송 신호(예, TV방송 신호, 라디오방송 신호 또는 데이터방송 신호) 및 방송부가 정보(예, EPS(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다. 오디오재생 모듈(142)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 오디오 파일(예, 파일 확장자가 mp3, wma, ogg 또는 wav인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일(예, 파일 확장자가 mpeg, mpg, mp4, avi, mov, 또는 mkv인 파일)을 재생할 수 있다. 동영상재생 모듈(143)은 디지털 오디오 파일을 재생할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141)을 제외하고 오디오재생 모듈(142)과 동영상재생 모듈(143)을 포함할 수 있다. 또한, 멀티미디어 모듈(140)의 오디오재생 모듈(142) 또는 동영상재생 모듈(143)은 제어부(110)에 포함될 수 있다.
이동통신 모듈(120)은 제어부(110)의 제어에 따라 적어도 하나 또는 복수의 안테나(도시되지 아니함)를 이용하여 이동통신을 통해 휴대 단말 장치(100)가 외부 장치와 연결되도록 할 수 있다. 이동통신 모듈(120)은 휴대 단말 장치(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿PC 또는 다른 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 송/수신할 수 있다. 또한 이동통신 모듈(120)은 제어부(110)의 제어에 따라 와이파이(Wi-Fi), 3G/4G 데이터 네트워크를 통해 무선 액세스 포인트(AP, access point)가 설치된 장소에서 무선 인터넷 등과 연결되거나, 주변 장치들과 무선으로 무선 신호를 송/수신할 수 있다.
서브통신 모듈(130)은 무선랜 모듈(131)과 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다.
무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리통신 모듈(132)은 제어부(110)의 제어에 따라 휴대 단말 장치(100)간에 무선으로 근거리 통신을 할 수 있다.
휴대 단말 장치(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 휴대 단말 장치(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131), 및 근거리통신 모듈(132)들의 조합을 포함할 수 있다.
GPS 모듈(155)은 지구 궤도상에 있는 복수의 GPS위성(도시되지 아니함)에서부터 전파를 수신하고, GPS위성(도시되지 아니함)에서부터 휴대 단말 장치(100)까지 전파도달시간(Time of Arrival)을 이용하여 휴대 단말 장치(100)의 위치를 산출할 수 있다.
센서 모듈(170)은 휴대 단말 장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서모듈(170)은 사용자의 휴대 단말 장치(100)에 대한 접근여부를 검출하는 근접센서, 또는 휴대 단말 장치(100)의 동작(예, 휴대 단말 장치(100)의 회전, 휴대 단말 장치(100)에 가해지는 가속도 또는 진동)을 검출하는 모션센서(도시되지 아니함), 주변의 빛의 양을 검출하는 조도센서(도시되지 아니함), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter)를 포함할 수 있다. 또한 센서 모듈(170)은 지구 자기장을 이용해 방위(point of the compass)를 검출하는 지자기 센서(Geo-magnetic Sensor, 도시되지 아니함), 어떤 정해진 방향에서의 각변위 또는 그 변화율을 계측하는 관성센서를 포함할 수 있다.
상기 센서모듈(170)의 센서는 휴대 단말 장치(100)의 성능에 따라 추가되거나 삭제될 수 있다. 적어도 하나의 센서는 상태를 검출하고, 검출에 대응되는 신호를 생성하여 제어부(110)로 전송할 수 있다.
입/출력 모듈(160; 입력부/출력부라고도 함)은 복수의 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165), 및 키패드(166) 중 적어도 하나를 포함할 수 있다.
버튼(161)은 상기 휴대 단말 장치(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼(도시되지 아니함), 볼륨버튼(도시되지 아니함), 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼(161) 중 적어도 하나를 포함할 수 있다.
마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성한다.
스피커(163)는 상기 휴대 단말 장치(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다. 스피커(163)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140) 또는 카메라 모듈(150)의 다양한 신호(예, 무선신호, 방송신호, 디지털 오디오 파일, 디지털 동영상 파일 또는 사진 촬영 등)에 대응되는 사운드를 휴대 단말 장치(100) 외부로 출력할 수 있다. 스피커(163)는 휴대 단말 장치(100)가 수행하는 기능에 대응되는 사운드(예, 전화 통화에 대응되는 버튼 조작음, 또는 통화 연결음)를 출력할 수 있다.
진동모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 휴대 단말 장치(100)는 다른 장치(도시되지 아니함)로부터 음성통화가 수신되는 경우, 진동모터(164)가 동작한다. 상기 휴대 단말 장치(100)의 하우징 내에 하나 또는 복수로 형성될 수 있다. 진동모터(164)는 터치스크린(190) 상을 터치하는 사용자의 터치 동작 및 터치스크린(190) 상에서의 터치의 연속적인 움직임에 응답하여 동작할 수 있다.
커넥터(165)는 상기 휴대 단말 장치(100)와 외부 장치(도시되지 아니함) 또는 전원소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 상기 휴대 단말 장치(100)는 제어부(110)의 제어에 따라 커넥터(165)에 연결된 유선 케이블을 통해 휴대 단말 장치(100)의 저장부(175)에 저장된 데이터를 외부 장치(도시되지 아니함)로 전송하거나 또는 외부 장치(도시되지 아니함)로부터 데이터를 수신할 수 있다. 또한 상기 휴대 단말 장치(100)는 커넥터(165)에 연결된 유선 케이블을 통해 전원소스(도시되지 아니함)로부터 전원을 입력받거나, 상기 전원소스를 이용하여 배터리(도시되지 아니함)를 충전할 수 있다.
키패드(166)는 휴대 단말 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 휴대 단말 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함) 또는 터치스크린(190)에 표시되는 가상의 키패드(도시되지 아니함)를 포함한다. 휴대 단말 장치(100)에 형성되는 물리적인 키패드(도시되지 아니함)는 휴대 단말 장치(100)의 성능 또는 구조에 따라 제외될 수 있다.
이어폰 연결잭(Earphone Connecting Jack, 167)에는 이어폰(도시되지 아니함)이 삽입되어 상기 휴대 단말 장치(100)에 연결될 수 있다.
터치스크린(190)은 사용자의 조작을 입력 받으며, 응용 프로그램의 실행 영상과 동작 상태 및 메뉴 상태를 디스플레이 할 수 있다. 즉, 터치스크린(190)은 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 유저 인터페이스를 제공할 수 있다. 터치스크린(190)은 유저 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다. 터치스크린(190)은 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 터치 가능한 입력 수단(예, 스타일러스 펜)을 통해 적어도 하나의 터치를 입력 받을 수 있다. 또한, 터치스크린(190)은 적어도 하나의 터치 중에서, 하나의 터치의 연속적인 움직임을 입력 받을 수 있다. 터치스크린(190)은 입력되는 터치의 연속적인 움직임에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다.
또한, 본 발명에서 터치는 터치스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과의 직접적인 접촉에 한정되지 않고, 비접촉을 포함할 수 있다. 터치스크린(190)에서 검출 가능한 간격은 휴대 단말 장치(100)의 성능 또는 구조에 따라 변경될 수 있으며, 특히 터치스크린(190)은 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉에 의한 터치 이벤트와, 비접촉 상태로의 입력(예컨대, 호버링(Hovering)) 이벤트를 구분하여 검출 가능하도록, 상기 터치 이벤트와 호버링 이벤트에 의해 검출되는 값(예컨대, 전류값 등)이 다르게 출력될 수 있도록 구성된다. 또한, 터치스크린(190)은 호버링 이벤트가 발생되는 공간과 터치스크린(190) 사이의 거리에 따라, 검출되는 값(예컨대, 전류값 등)을 다르게 출력하는 것이 바람직하다.
터치스크린(190)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 전자기 유도(Electro Magnetic Resonance; EMR) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.
한편, 터치스크린 컨트롤러(195)는 터치스크린(190)에서부터 수신된 아날로그 신호를 디지털 신호(예, X와 Y좌표)로 변환하여 제어부(110)로 전송한다. 제어부(110)는 터치스크린 컨트롤러(195)로부터 수신된 디지털 신호를 이용하여 터치스크린(190)을 제어할 수 있다. 예를 들어, 제어부(110)는 터치 이벤트 또는 호버링 이벤트에 응답하여 터치스크린(190)에 표시된 단축 아이콘(도시되지 아니함)이 선택되게 하거나 또는 단축 아이콘(도시되지 아니함)을 실행할 수 있다. 또한, 터치스크린 컨트롤러(195)는 제어부(110)에 포함될 수도 있다.
또한, 터치스크린 컨트롤러(195)는 터치스크린(190)을 통해 출력되는 값(예컨대, 전류값 등)을 검출하여 호버링 이벤트가 발생되는 공간과 터치스크린(190) 사이의 거리를 확인할 수 있고, 확인된 거리 값을 디지털 신호(예컨대, Z좌표)로 변환하여 제어부(110)로 제공할 수 있다.
또한, 터치스크린(190)은 사용자의 신체 및 터치 가능한 입력 수단에 의한 입력을 동시에 입력 받을 수 있도록, 사용자의 신체 및 터치 가능한 입력 수단의 터치나 근접을 각각 감지할 수 있는 적어도 두 개의 터치스크린 패널을 포함할 수 있다. 상기 적어도 두 개의 터치스크린 패널은 서로 다른 출력값을 터치스크린 컨트롤러(195)에 제공하고, 터치스크린 컨트롤러(195)는 상기 적어도 두 개의 터치스크린 패널에서 입력되는 값을 서로 다르게 인식하여, 터치스크린으로부터의 입력이 사용자의 신체에 의한 입력인지, 터치 가능한 입력 수단에 의한 입력인지를 구분할 수 있다.
저장부(175)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS모듈(155), 입/출력 모듈(160), 센서 모듈(170), 터치스크린(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 휴대 단말 장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 어플리케이션들을 저장할 수 있다.
"저장부"라는 용어는 저장부(175), 제어부(110)내 롬(112), 램(113) 또는 휴대 단말 장치(100)에 장착되는 메모리 카드(도시되지 아니함)(예, SD 카드, 메모리 스틱)를 포함한다. 저장부는 비휘발성메모리, 휘발성메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
제어부(110)는 CPU(111), 휴대 단말 장치(100)의 제어를 위한 제어프로그램이 저장된 롬(ROM, 112) 및 휴대 단말 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 휴대 단말 장치(100)에서 수행되는 작업을 위한 기억영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부버스(bus)를 통해 상호 연결될 수 있다.
제어부(110)는 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175), 전원공급부(180), 터치스크린(190), 및 터치스크린 컨트롤러(195)를 제어할 수 있다.
또한 제어부(110)는 본 발명의 사용자 인터페이스 표시 동작의 특징에 따라, 터치스크린(190)을 통한 입력에 따라 터치스크린(190)에 표시된 조작부 창의 하나 이상의 설정 항목들 중 제 1항목에 입력 발생 시, 터치스크린(190)에 표시된 조작부 창의 제1 항목을 제외한 적어도 일부 또는 나머지 부분을 터치스크린(190)에 표시하지 않도록 제어할 수 있다. 또한 제어부(110)는 터치스크린(190)에 표시된 조작부 창의 제1 항목을 제외한 적어도 일부 또는 나머지 부분을 터치스크린(190)에 표시하지 않도록 하는 동작 이후, 제 1항목에 입력 종료 시, 터치스크린(190)에 표시된 조작부 창의 제1 항목을 제외한 적어도 일부 또는 나머지 부분을 다시 터치스크린(190)에 표시하도록 제어할 수 있다.
도 4는 본 발명의 일 실시예에 따른 사용자 인터페이스 표시 동작의 흐름도이다. 도 4를 참조하면, 본 발명은, 조작부 창을 화면에 표시한 후, 사용자가 실제로 조작하는 부분에 입력이 발생하면, 상기 조작부 창에서 입력이 발생하는 부분 이외의 부분을 화면에서 사라지게 한다. 또한, 사용자의 입력이 종료되면(선택완료 또는 다른 조작을 하기 위해 포커스가 벗어나게 되면) 최초에 제공된 조작부 창을 화면에 복원하도록 한다. 이에 따라, 본 발명은 사용자가 변경할 수 있는 조작부 창과 조작이 반영되는 화면을 동시에 제공한다.
먼저 201 단계에서는 음성 명령, 터치, 버튼 누름 등과 같은 사용자 조작을 통해 조작부를 실행하며, 이후 203 단계에서는 실행된 조작부 창을 화면에 표시한다. 이때의 조작부는 예를 들어 휴대 단말 장치의 환경설정, 알림바(Notification Bar) 등일 수 있으며, 상기 조작부 창은 하나 이상의 설정 항목들을 포함하여 구성될 수 있다. 이때의 설정 항목은 예를 들어, 화면의 밝기 설정, 글자 크기 설정, 음량 설정 등 다양할 수 있다. 또한 화면에 표시되는 조작부 창은 휴대 단말 장치의 전체화면으로 표시될 수 있으며, 또는 부분화면으로 표시될 수도 있다.
이후 205 단계에서는 조작부 창의 하나 이상의 설정 항목들 중 하나인 제1 항목에 입력의 발생 유무를 판단한다. 이때의 입력은 제1 항목을 활성화하기 위한 버튼 누름, 터치, 호버링, 음성 입력 등일 수 있다.
205 단계의 판단 결과, 조작부 창의 제1 항목에 입력이 발생된 것으로 판단되면 207 단계로 진행하고, 조작부 창의 제1 항목에 입력이 발생되지 않은 것으로 판단되면 본 발명의 동작을 종료한다.
이후 207 단계에서는 조작부 창의 제1 항목을 제외한 나머지 부분이 화면에 표시되지 않도록 한다. 이는 사용자가 실제로 조작하는 부분에 입력이 발생하면, 조작부 창의 제1 항목 이외의 나머지 부분들이 표시되지 않도록 화면 설정을 변경하여 제1 항목만이 화면에 표시되도록 하는 것이다.
이후 209 단계에서는 조작부 창의 제1 항목에 발생된 입력에 따라 화면의 설정 변경 유무를 판단한다. 209 단계의 판단 결과에 따라, 조작부 창의 제1 항목에 발생된 입력에 따라 화면의 설정이 변경된 것으로 판단되면 211 단계로 진행하고, 조작부 창의 제1 항목에 발생된 입력에 따라 화면의 설정이 변경되지 않은 것으로 판단되면 213 단계로 진행한다.
이후 211 단계에서는 설정 변경을 화면에 적용한다.
이후 213 단계에서는 제1 항목의 입력 종료 유무를 판단한다. 이때의 입력 종료는 제1 항목의 설정 완료한 경우일 수 있으며, 종료 버튼의 선택 또는 취소 버튼의 선택, 되돌리기 버튼의 선택 등으로 제1 항목의 설정을 종료하는 경우 일 수 있다. 또한, 입력 종료는 미리 설정된 시간의 경과에 따른 입력 종료일 수 있으며, 제 1항목 이외의 부분에 입력이 발생하는 경우일 수도 있다. 213 단계에서 제1 항목의 입력이 종료된 것으로 판단되면 215 단계로 진행하고, 213 단계에서 제1 항목의 입력이 종료되지 않은 것으로 판단되면 207 단계로 다시 돌아간다.
이후 215 단계에서는 조작모드 창의 제1 항목을 제외한 나머지 부분이 화면에 다시 표시되도록 한다. 이는 조작부 창을 다시 복원하는 것이다.
도 5는 본 발명의 일 실시예에 따른 손 터치에 따른 사용자 인터페이스 표시를 나타낸 예시도이다. 도 5를 참조하면, 홈 화면 위에 조작부 창이 전체 화면으로 표시된 상태에서 도 5의 (a)와 같이, 화면 밝기를 조절하는 스크롤바에 터치 입력 시, 도 5의 (b)와 같이 조작부 창에서 스크롤바 이외의 부분을 화면에서 모두 사라지게 하여, 홈 화면 위에 스크롤바 만이 표시되도록 한다. 이때, 터치 및/또는 드래그를 통해 스크롤바의 포인트를 이동시키면, 도 5의 (c)와 같이 스크롤바의 포인트 위치에 따라 화면의 밝기를 변경하여 적용한다. 스크롤바에서 터치를 놓으면 도 5의 (d)와 같이 홈 화면 위에 다시 조작부 창을 복원한다.
본 발명의 다른 실시예에 따르면, 컴퓨터나 노트북에서의 조작부는 배경 설정, 해상도 설정 등과 같은 설정 항목들을 포함하는 설정 메뉴이거나 문서 및 이미지의 편집 메뉴 등 일 수 있다. 또한 조작부 창의 하나 이상의 설정 항목들 중 하나인 제1 항목에 발생되는 입력은 마우스 오버, 마우스 클릭, 마우스 드래그 등 일 수 있다.
도 6을 참조하여, 본 발명의 일 실시예에 따른 마우스 입력에 따른 사용자 인터페이스 표시를 나타내는 동작을 설명하면 다음과 같다. 도 6의 (a)와 같은 조작부 창이 이미지와 오버랩되어 화면에 표시된 상태에서, 상기 이미지에 도형 채우기 효과를 적용하기 위해 테마 색 항목에 마우스 오버 시, 도 6의 (b)와 같이 조작부 창에서 테마 색 항목 이외의 부분을 화면에서 모두 사라지게 하여, 이미지 위에 테마 색 항목만이 표시되도록 한다. 이후, 마우스 오버의 위치에 따라, 상기 이미지는 마우스 오버가 위치한 해당 색상으로 색상이 변경되도록 한다. 이때, 마우스로 하나의 색상을 클릭 시, 해당 색상을 이미지에 적용하고, 테마 색 항목을 화면에서 사라지게 하여, 이미지만이 화면에 표시되도록 한다.
도 7을 참조하여, 본 발명의 다른 실시예에 따른 마우스 입력에 따른 사용자 인터페이스 표시를 나타내는 동작을 설명하면 다음과 같다. 조작부 창이 이미지와 오버랩되어 화면에 표시된 상태에서, 도 7의 (a)와 같이 상기 이미지에 3차원 회전을 적용하기 위해 3차원 회전 항목에 마우스 오버 시, 도 7의 (b)와 같이 조작부 창에서 3차원 회전 항목 이외의 부분을 화면에서 모두 사라지게 하여, 이미지 위에 3차원 회전 항목만이 표시되도록 한다. 이후, 마우스 오버의 위치에 따라 상기 이미지는 마우스 오버가 위치한 회전 항목의 해당 회전 방향으로 상기 이미지가 회전 한다. 이때, 마우스로 하나의 회전 항목을 클릭 시, 해당 회전 항목의 회전 방향으로 이미지를 회전시키고, 도 7의 (a)와 같은 조작부 창이 화면에 다시 표시되도록 한다.
상기와 같이 일 실시예에 따른 본 발명의 사용자 인터페이스 표시 방법 및 장치의 구성 및 동작이 이루어질 수 있으며, 한편 상기한 본 발명의 설명에서는 구체적인 실시예에 관해 설명하였으나 이외에도 본 발명의 다양한 실시예들이나, 여러 가지 변형 및 변경이 있을 수 있다. 예컨대, 본 명세서에서 기재된 각각의 동작들은 그 전체 또는 일부가 병력적으로 동시에 수행되거나, 일부가 생략되거나, 다른 추가적인 동작들을 포함할 수 있다.
예를 들어, 상기 실시예에서는 조작부 창의 제1 항목에 입력이 발생된 것으로 판단되면 조작부 창의 제1 항목을 제외한 나머지 부분이 화면에 표시되지 않도록 하는 동작을 수행하도록 했지만, 상기 제1 항목 이외의 조작부 창의 적어도 일부가 추가적으로 표시되도록 동작할 수 있다.
또한, 화면에 표시된 조작부 창의 하나 이상의 설정 항목들 중 제1 항목에 입력 발생 시, 화면에 표시된 조작부 창의 제 1항목을 제외한 나머지 부분이 반투명 상태로 표시되도록 동작할 수 있다.
또한, 상기 실시예에서는 조작부 창의 제1 항목에 입력이 발생된 것으로 판단되면 조작부 창의 제1 항목을 제외한 나머지 부분이 화면에 표시되지 않도록 하는 동작을 수행하도록 하면서, 제1 항목의 표시 위치의 변경이 없지만, 조작부 창의 제1 항목에 입력이 발생된 것으로 판단되면 조작부 창의 제1 항목을 제외한 나머지 부분이 화면에 표시되지 않도록 하는 동작을 수행하도록 하면서, 제1 항목의 표시 위치를 자동으로 변경하도록 할 수도 있다.
또한 본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 휴대 단말 내에 포함될 수 있는 메모리는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.

Claims (15)

  1. 전자 장치에 있어서,
    터치 디스플레이; 및
    적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는:
    상기 터치 디스플레이 상에, 제 1 화면을 표시하고,
    상기 터치 디스플레이 상에, 스크롤 바를 포함하는 조작부 창을 포함하는 제 2 화면을 표시하고,
    상기 스크롤 바 상에 터치 드래그 입력이 수신되는 동안에, 상기 스크롤 바를 제외한 상기 조작부 창의 나머지 부분의 적어도 일부가 표시되지 않도록 제어하여 상기 나머지 부분의 적어도 일부 아래의 상기 제 1 화면의 일부가 상기 스크롤 바와 함께 표시되도록 하고, 상기 터치 디스플레이의 밝기를 상기 스크롤 바 상의 상기 터치 드래그 입력과 연관된 위치에 따라 조정하고,
    상기 스크롤 바 상의 상기 터치 드래그 입력의 해제에 응답하여, 상기 터치 디스플레이 상에, 상기 터치 드래그 입력을 수신하는 동안 표시되지 않았던 상기 조작부 창의 상기 나머지 부분의 적어도 일부를 다시 표시하도록 설정된 전자 장치.
  2. 제 1 항에 있어서,
    상기 터치 드래그 입력은, 해제가 없는 상기 터치 디스플레이 상의 터치의 연속적인 움직임을 포함하는 전자 장치.
  3. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 터치 디스플레이 상의 풀-다운 동작에 응답하여 상기 조작부 창을 표시하도록 설정된 전자 장치.
  4. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 터치 디스플레이 상에, 상기 조작부 창이 복구되도록 상기 조작부 창의 상기 나머지 부분의 적어도 일부를 표시하도록 설정된 전자 장치.
  5. 제 1 항에 있어서,
    상기 조작부 창은, 상기 제 1 화면의 전체 또는 일부를 차지하도록 표시되는 전자 장치.
  6. 사용자 인터페이스 표시 방법에 있어서,
    제 1 화면을 표시하는 동작,
    스크롤 바를 포함하는 조작부 창을 포함하는 제 2 화면을 표시하는 동작,
    상기 스크롤 바 상에 터치 드래그 입력이 수신되는 동안에, 상기 스크롤 바를 제외한 상기 조작부 창의 나머지 부분의 적어도 일부가 표시되지 않도록 제어하여 상기 나머지 부분의 적어도 일부 아래의 상기 제 1 화면의 일부를 상기 스크롤 바와 함께 표시하는 동작,
    터치 디스플레이의 밝기를 상기 스크롤 바 상의 상기 터치 드래그 입력과 연관된 위치에 따라 조정하는 동작, 및
    상기 스크롤 바 상의 상기 터치 드래그 입력의 해제에 응답하여, 상기 터치 디스플레이 상에, 상기 터치 드래그 입력을 수신하는 동안 표시되지 않았던 상기 조작부 창의 상기 나머지 부분의 적어도 일부를 다시 표시하는 동작
    을 포함하는 사용자 인터페이스 표시 방법.
  7. 제 6 항에 있어서,
    상기 터치 드래그 입력은, 해제가 없는 상기 터치 디스플레이 상의 터치의 연속적인 움직임을 포함하는 사용자 인터페이스 표시 방법.
  8. 제 6 항에 있어서,
    상기 조작부 창을 포함하는 상기 제 2 화면을 표시하는 동작은, 상기 터치 디스플레이 상의 풀-다운 동작에 응답하여 상기 조작부 창을 표시하는 사용자 인터페이스 표시 방법.
  9. 제 6 항에 있어서,
    상기 조작부 창의 상기 나머지 부분의 적어도 일부를 다시 표시하는 동작은, 상기 조작부 창이 복구되도록 상기 조작부 창의 상기 나머지 부분의 적어도 일부를 표시하는 사용자 인터페이스 표시 방법.
  10. 제 6 항에 있어서,
    상기 조작부 창은, 상기 제 1 화면의 전체 또는 일부를 차지하도록 표시되는 사용자 인터페이스 표시 방법.
  11. 명령어들을 저장하는 컴퓨터로 읽을 수 있는 저장 매체에 있어서, 상기 명령어들은, 실행 시에 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 하고, 상기 적어도 하나의 동작은,
    제 1 화면을 표시하는 동작,
    스크롤 바를 포함하는 조작부 창을 포함하는 제 2 화면을 표시하는 동작,
    상기 스크롤 바 상에 터치 드래그 입력이 수신되는 동안에, 상기 스크롤 바를 제외한 상기 조작부 창의 나머지 부분의 적어도 일부가 표시되지 않도록 제어하여 상기 나머지 부분의 적어도 일부 아래의 상기 제 1 화면의 일부를 상기 스크롤 바와 함께 표시하는 동작,
    터치 디스플레이의 밝기를 상기 스크롤 바 상의 상기 터치 드래그 입력과 연관된 위치에 따라 조정하는 동작, 및
    상기 스크롤 바 상의 상기 터치 드래그 입력의 해제에 응답하여, 상기 터치 디스플레이 상에, 상기 터치 드래그 입력을 수신하는 동안 표시되지 않았던 상기 조작부 창의 상기 나머지 부분의 적어도 일부를 다시 표시하는 동작
    을 포함하는 저장 매체.
  12. 제 11 항에 있어서,
    상기 터치 드래그 입력은, 해제가 없는 상기 터치 디스플레이 상의 터치의 연속적인 움직임을 포함하는 저장 매체.
  13. 제 11 항에 있어서,
    상기 조작부 창을 포함하는 상기 제 2 화면을 표시하는 동작은, 상기 터치 디스플레이 상의 풀-다운 동작에 응답하여 상기 조작부 창을 표시하는 저장 매체.
  14. 제 11 항에 있어서,
    상기 조작부 창의 상기 나머지 부분의 적어도 일부를 다시 표시하는 동작은, 상기 조작부 창이 복구되도록 상기 조작부 창의 상기 나머지 부분의 적어도 일부를 표시하는 저장 매체.
  15. 제 11 항에 있어서,
    상기 조작부 창은, 상기 제 1 화면의 전체 또는 일부를 차지하도록 표시되는 저장 매체.
KR1020200100716A 2020-08-11 2020-08-11 사용자 인터페이스 표시 방법 및 장치 KR102187856B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200100716A KR102187856B1 (ko) 2020-08-11 2020-08-11 사용자 인터페이스 표시 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200100716A KR102187856B1 (ko) 2020-08-11 2020-08-11 사용자 인터페이스 표시 방법 및 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020130035358A Division KR102145577B1 (ko) 2013-04-01 2013-04-01 사용자 인터페이스 표시 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020200165529A Division KR102239019B1 (ko) 2020-12-01 2020-12-01 사용자 인터페이스 표시 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20200098458A KR20200098458A (ko) 2020-08-20
KR102187856B1 true KR102187856B1 (ko) 2020-12-07

Family

ID=72242611

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200100716A KR102187856B1 (ko) 2020-08-11 2020-08-11 사용자 인터페이스 표시 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102187856B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1976408A (zh) 2005-11-28 2007-06-06 海信集团有限公司 应用于电视机菜单界面的显示方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5933141A (en) * 1998-01-05 1999-08-03 Gateway 2000, Inc. Mutatably transparent displays
US6982695B1 (en) * 1999-04-22 2006-01-03 Palmsource, Inc. Method and apparatus for software control of viewing parameters

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1976408A (zh) 2005-11-28 2007-06-06 海信集团有限公司 应用于电视机菜单界面的显示方法

Also Published As

Publication number Publication date
KR20200098458A (ko) 2020-08-20

Similar Documents

Publication Publication Date Title
KR102145577B1 (ko) 사용자 인터페이스 표시 방법 및 장치
US9465514B2 (en) Method and apparatus for providing a changed shortcut icon corresponding to a status thereof
KR102158098B1 (ko) 이미지 인식을 이용한 이미지 레이아웃 방법 및 장치
US20180329598A1 (en) Method and apparatus for dynamic display box management
KR20140064089A (ko) 근접 터치 입력을 통한 사용자 인터페이스 제공 방법 및 장치
KR20140000572A (ko) 모바일 장치에서의 메뉴 표시 장치 및 방법
KR20140100705A (ko) 터치키 동작의 제어 방법 및 장치
KR20150025450A (ko) 컨텐츠 스크랩 방법, 장치 및 기록매체
KR20140110646A (ko) 사용자 단말 및 사용자 단말에서 화면 표시 방법
KR20140068585A (ko) 터치스크린에서 손 터치와 펜 터치의 구별 방법 및 장치
KR102187856B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR102239019B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR102385946B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR102278676B1 (ko) 사용자 인터페이스 표시 방법 및 장치
KR20140117092A (ko) 디스플레이 장치 및 그 제어 방법
KR20130123794A (ko) 메모용 어플리케이션
KR20140089870A (ko) 사용자 인터페이스 제공 방법 및 그 장치

Legal Events

Date Code Title Description
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant