KR20160124808A - 모바일 디바이스 상에 제공된 정보를 조절하기 위한 근접성 감지의 사용 - Google Patents

모바일 디바이스 상에 제공된 정보를 조절하기 위한 근접성 감지의 사용 Download PDF

Info

Publication number
KR20160124808A
KR20160124808A KR1020167025336A KR20167025336A KR20160124808A KR 20160124808 A KR20160124808 A KR 20160124808A KR 1020167025336 A KR1020167025336 A KR 1020167025336A KR 20167025336 A KR20167025336 A KR 20167025336A KR 20160124808 A KR20160124808 A KR 20160124808A
Authority
KR
South Korea
Prior art keywords
user
proximity
computer
display
mobile device
Prior art date
Application number
KR1020167025336A
Other languages
English (en)
Inventor
선더 라만
Original Assignee
마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 filed Critical 마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Publication of KR20160124808A publication Critical patent/KR20160124808A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/12Detecting, e.g. by using light barriers using one transmitter and one receiver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

모바일 디바이스에 대한 사용자의 얼굴의 근접성을 나타내는 근접성 메트릭이 획득된다. 모바일 디바이스의 사용자 인터페이스 상의 정보의 내용 또는 시각적 특성이 근접성 메트릭에 기초하여 조절된다.

Description

모바일 디바이스 상에 제공된 정보를 조절하기 위한 근접성 감지의 사용{USING PROXIMITY SENSING TO ADJUST INFORMATION PROVIDED ON A MOBILE DEVICE}
컴퓨팅 디바이스가 현재 널리 사용되고 있다. 몇몇 이러한 컴퓨팅 디바이스는, 그 중에서도 특히, 스마트폰, 태블릿 컴퓨터, 핸드헬드 컴퓨터, 전자 읽기 디바이스(electronic reading device), 멀티미디어 플레이어 디바이스를 포함한다.
이들 및 다른 유형의 모바일 디바이스는 매우 다양한 센서를 포함한다. 예를 들면, 몇몇 이러한 센서는 자이로스코프 센서, 가속도계, 주변광 센서, 카메라, 전세계 위치 결정 센서(global positioning sensor), 다른 유형의 배향 센서, 및 모바일 디바이스가 임의의 다른 디바이스에 꽂혀 있는지를 나타내는 다양한 센서를 포함한다. 이러한 센서는 디바이스 상의 디스플레이를 켜거나 끄는 데, 또는 특정의 특징들을 인에이블시키거나 디스에이블시키는 데 사용될 수 있다. 예를 들면, 일부 스마트폰은 마이크로폰 근방에 소형 적외선 센서를 포함한다. 사용자의 얼굴이 디바이스에 매우 근접해 있는지를 결정하기 위해 적외선 센서로부터의 센서 신호가 처리된다. 그러한 경우, 스마트폰은 사용자가 전화기를 귀에 대고 전화를 걸고 있는 것으로 결정하고, 따라서 디스플레이 디바이스를 끄고 디스플레이 화면 상에서의 터치 감응 입력을 디스에이블시킨다.
다른 모바일 디바이스는 사용자에 대해 얼굴 인식을 수행하기 위해 카메라를 사용한다. 얼굴 인식은 모바일 디바이스를 잠금하거나 잠금 해제하기 위해 사용될 수 있다.
현재, 모바일 디바이스가 이러한 유형의 센서를 가지고 있는지에 관계없이, 디스플레이는 정적이다. 즉, 모바일 디바이스 상의 사용자 인터페이스를 통해 제시되는, 정보의 내용, 또는 내용의 시각적 특성이 변경되지 않는다. 그 대신에, 디스플레이가 켜지거나 꺼질 수 있지만, 내용 자체는 변하지 않는다.
이상의 논의는 일반적인 배경 기술 정보를 위해 제공된 것에 불과하며, 청구된 발명 요지의 범주를 정하는 데 보조 수단으로 사용되도록 의도되어 있지 않다.
모바일 디바이스에 대한 사용자의 얼굴의 근접성을 나타내는 근접성 메트릭(proximity metric)이 획득된다. 모바일 디바이스의 사용자 인터페이스 상의 정보의 내용 또는 시각적 특성이 근접성 메트릭에 기초하여 조절된다.
이 발명의 내용은 이하에서 발명을 실시하기 위한 구체적인 내용에 추가로 기술되는 선택된 개념들을 간략화된 형태로 소개하기 위해 제공된다. 이 발명의 내용은 청구된 발명 요지의 핵심적인 특징들 또는 필수적인 특징들을 확인하기 위한 것이 아니며, 청구된 발명 요지의 범주를 정하는 데 보조 수단으로 사용되기 위한 것도 아니다. 청구된 발명 요지가 배경 기술에서 언급한 단점들 중 일부 또는 전부를 해결하는 구현들로 제한되지 않는다.
도 1은 모바일 디바이스의 일 실시예의 블록도.
도 2a 및 도 2b(총칭하여 도 2라고 지칭됨)는 모바일 디바이스의 사용자 인터페이스 상에 제공되는 정보의 내용의 시각적 특성을 조절하는 데 있어서의 도 1에 도시된 모바일 디바이스의 동작의 일 실시예를 나타낸 흐름도.
도 3a 내지 도 3h는 하나의 예시적인 모바일 디바이스 상의 다양한 사용자 인터페이스 디스플레이를 나타낸 도면.
도 4 내지 도 8은 모바일 디바이스의 부가 실시예를 나타낸 도면.
도 9는 컴퓨팅 환경의 일 실시예의 블록도.
도 1은 하나의 예시적인 모바일 디바이스(100)의 블록도이다. 모바일 디바이스(100)는 예시적으로 프로세서(102), 사용자 인터페이스 컴포넌트(104), 사용자 입력 메커니즘(106), 애플리케이션(108), 사용자 인터페이스 조절 컴포넌트(110), 데이터 저장소(112), 디스플레이 디바이스(114), 근접 센서 컴포넌트(116), 다른 센서(118)를 포함하고, 각종의 다른 항목(item)(120)도 포함할 수 있다.
일 실시예에서, 사용자 인터페이스 컴포넌트(104)는, 모바일 디바이스(100)의 프로세서(102) 또는 다른 항목의 제어 하에서 또는 그 자체에 의해, 사용자(124)에게 디스플레이되는 사용자 인터페이스 디스플레이(122)를 발생시킨다. 사용자 인터페이스 디스플레이(122)는 모바일 디바이스(100)를 제어하고 조작하기 위해 사용자(124)와 상호작용할 수 있는 사용자 입력 메커니즘을 가질 수 있다. 디스플레이 디바이스(114)는 예시적으로 사용자 인터페이스 디스플레이(122)를 디스플레이하는 데 사용된다. 디스플레이 디바이스(114)는 터치 감응 디스플레이 디바이스 또는 이하에서 기술되는 매우 다양한 다른 유형의 디스플레이 디바이스일 수 있다. 그에 부가하여, 사용자 입력 메커니즘(106)은 모바일 디바이스(100)도 제어하고 조작하기 위해 사용자(124)와 상호작용할 수 있는 키패드, 스위치, 버튼, 썸 패드(thumb pad) 등을 포함할 수 있다.
애플리케이션(108)은 아주 다양한 상이한 유형의 애플리케이션(그의 일부는 도 4 내지 도 8과 관련하여 이하에서 보다 상세히 기술됨)을 포함할 수 있다. 데이터 저장소(112)는 예시적으로 프로세서(102) 및 애플리케이션(108)에 대한 데이터 및 다른 정보를 저장한다. 프로세서(102)는 예시적으로 모바일 디바이스(100)에 대한 애플리케이션(108)은 물론 운영 체제를 실행한다.
근접 센서 컴포넌트(116)는 사용자의 얼굴에 대한 모바일 디바이스(100)의 근접성을 감지하는 아주 다양한 상이한 유형의 센서 컴포넌트일 수 있다. 근접 센서 컴포넌트(116)의 일부 다양한 실시예들이 또한 도 2와 관련하여 이하에서 기술된다. 다른 센서(118)는 아주 다양한 상이한 유형의 센서 - 그의 개수가 또한 도 2와 관련하여 이하에서 기술됨 - 를 포함할 수 있다. 일 실시예에서, 사용자 인터페이스(UI) 조절 컴포넌트(110)는 근접 센서 컴포넌트(116) 및 다른 센서(118)(원하는 경우)로부터 신호를 수신하고, 모바일 디바이스(100)의 사용자 인터페이스 상에 제공되는, (디스플레이를 단순히 켜거나 끄는 것을 포함하지 않는) 정보의 내용 또는 정보의 시각적 특성을 조절한다. 예를 들면, UI 조절 컴포넌트(110)는 사용자 인터페이스 디스플레이(122) 상에 디스플레이되는 정보의 내용, 내용의 크기, 또는 다른 것을 조절할 수 있다.
모바일 디바이스(100) 및 UI 조절 컴포넌트(110)의 전체적인 동작을 보다 상세히 기술하기 전에, 이해를 돕기 위해 개요가 먼저 제공될 것이다. 근접 센서 컴포넌트(116)는 먼저 사용자(124)의 얼굴에 대한 모바일 디바이스(100)의 근접성을 감지하고 그를 나타내는 신호를 발생시킨다. 다른 센서는, 모바일 디바이스(100)의 주변광 상태, 특정의 항목이 모바일 디바이스(100)에 꽂혀 있는지(헤드폰이 헤드폰 잭에 꽂혀 있는지 등), 및 다른 항목과 같은, 다른 정보를 감지한다. 센서 컴포넌트(116) 및 다른 센서(118)로부터의 출력은 예시적으로, 그 입력들에 기초하여, 디스플레이122) 상에 디스플레이되는 내용 또는 내용의 시각적 특성을 조절하는 UI 조절 컴포넌트(110)에 제공된다.
예를 들면, 근접 센서 컴포넌트(116)가 사용자의 얼굴이 모바일 디바이스(100)의 디스플레이 디바이스(114)로부터 꽤 멀리 있다는 것을 나타내는 출력을 제공하는 경우, UI 조절 컴포넌트(110)는 디스플레이된 내용을, 사용자(124)가 내용을 더 잘 볼 수 있도록 그의 크기를 증가시키는 것에 의해 조절할 수 있다. 예로서, UI 조절 컴포넌트(110)는 사용자 인터페이스 디스플레이(122)에 디스플레이되는 텍스트의 폰트 크기를 증가시킬 수 있다. 이미지들이 디스플레이되는 경우, UI 조절 컴포넌트(110)는 그 이미지들의 크기를 증가시킬 수 있다. 또한, 근접 센서 컴포넌트(116)의 출력이 사용자의 얼굴이 디스플레이 디바이스(114)에 비교적 가까이 있다는 것을 나타내는 경우, UI 조절 컴포넌트(110)는 그 항목들의 크기를 또한 감소시킬 수 있다. 이와 유사하게, 다른 센서(118)가 주변광 상태가 좋지 않다는 것을 나타내는 경우, UI 조절 컴포넌트(110)는 사용자의 경험을 향상시키기 위해 모바일 디바이스(100)의 조명 구성(백라이트, 밝기, 또는 다른 조명 파라미터 등)을 조절할 수 있다. 또한 유의할 점은, 일 실시예에서, 근접 센서 컴포넌트(116) 그리고 선택적으로 다른 센서(118) 및 UI 조절 컴포넌트(110)로부터의 출력이 UI 내용을 자체적으로 조절하는 애플리케이션(108)에 제공될 수 있다는 것이다. 이와 유사하게, UI 내용 조절이 모바일 디바이스(100)의 운영 체제에 의해 자동으로 또는 다른 방식으로 행해질 수 있다.
UI 내용 조절을 행하는 데 있어서의 모바일 디바이스(100)의 동작의 일 실시예에 대한 보다 상세한 논의가 이제부터 제공될 것이다. 도 2a 및 도 2b(총칭하여 도 2)는 모바일 디바이스(100)의 동작의 보다 상세한 실시예를 예시하는 흐름도를 나타낸 것이다. 도 3a 내지 도 3h는 예시적인 사용자 인터페이스 디스플레이를 나타낸 것이다. 도 1 내지 도 3h가 서로와 관련하여 이제부터 기술될 것이다.
일 실시예에서, 모바일 디바이스(100)의 조절 컴포넌트(110) 또는 다른 애플리케이션 또는 항목에 의해 수행되는 근접성 기반 UI 조절은 예시적으로 사용자(124)에 의해 인에이블되거나 디스에이블될 수 있다. 따라서, 근접성 기반 UI 조절이 인에이블되는 것으로 먼저 가정된다. 이것은 도 2에서 블록(130)에 의해 나타내어져 있다. 이것은 사용자(124)가 근접성 기반 UI 조절을 인에이블시키거나 디스에이블시킬 수 있게 하는 사용자 입력 메커니즘을 갖는 사용자 인터페이스 디스플레이를 발생시키는 것에 의해 행해질 수 있다. 이것은 블록(132)에 의해 나타내어져 있다. 이는 또한, 특정의 감지된 상태에 기초하여, 모바일 디바이스(100)에 의해 자동으로 행해질 수 있다. 예를 들면, 컴포넌트(110)가 전화기가 사용자의 서류 가방에 있다는 것을 나타내는 다른 센서(118)로부터의 가속도계 입력 및 다른 센서(118)로부터의 주변광 상태 센서를 수신하면, 근접성 기반 UI 조절이 자동으로 디스에이블될 수 있다. 근접성 기반 UI 조절을 자동으로 인에이블시키거나 디스에이블시키는 것은 블록(134)에 의해 나타내어져 있다. 근접성 기반 UI 조절이 다른 방식으로 인에이블되거나 디스에이블될 수 있고, 이것은 블록(136)에 의해 나타내어져 있다.
또한, 일 실시예에서, 근접성 기반 UI 조절이 사용자(124)에 의해 구성가능하다. 따라서, 도 2에 도시된 실시예에서, 모바일 디바이스(100)는 구성 사용자 인터페이스 디스플레이를 통해 사용자 구성 입력을 수신한다. 이것은 도 2에서 블록(138)에 의해 나타내어져 있다. 사용자 인터페이스 디스플레이는 사용자(124)가 조절이 행해질 거리(모바일 디바이스(100)로부터 사용자의 얼굴까지의 거리 등)를 설정할 수 있게 하는 사용자 입력 메커니즘을 가질 수 있다. 이것은 블록(140)에 의해 나타내어져 있다. 이는 사용자가 행해져야 하는 특정의 사용자 인터페이스 변경(텍스트가 확대되어야 하는지, 이미지이 확대되어야 하는지, 백라이팅이 변경되어야 하는지, 기타 등등)을 식별할 수 있게 하는 사용자 입력 메커니즘을 디스플레이할 수 있다. 이것은 블록(142)에 의해 나타내어져 있다. 이는 또한 사용자(124)가 근접성에 기초하여 사용자 인터페이스 변경의 규모(magnitude)를 설정할 수 있게 하는 사용자 입력 메커니즘을 포함할 수 있다. 예를 들면, 전화기가 사용자의 얼굴로부터 멀리 떨어져 있으면, 사용자 인터페이스 조절은 텍스트 및 이미지을 크게 확대하는 것일 수 있다. 전화기가 중간 범위에 있으면, 그들이 단지 얼마간 확대될 수 있고, 전화기가 근방에 있으면, 그들이 크기가 감소되거나 변하지 않을 수 있다. 사용자가 사용자 인터페이스 변경의 규모를 설정할 수 있게 하는 것은 블록(144)에 의해 나타내어져 있다. 사용자는 사용자 인터페이스 조절을 다른 방식들로도 구성할 수 있고, 이것은 블록(146)에 의해 나타내어져 있다.
도 3a는 사용자가 UI 조절을 구성할 수 있게 하는 사용자 인터페이스 디스플레이(148)를 갖는 모바일 디바이스(100)의 하나의 예시적인 실시예를 나타낸 것이다. 도 3a에서 제1 사용자 입력 메커니즘(150)이 사용자가 적응적 뷰(adaptive view)(즉, 근접성 기반 UI 조절)를 켜거나 끌 수 있게 한다는 것을 알 수 있다. 사용자 인터페이스 디스플레이(148)는 또한 예시적으로 조절 규모 사용자 입력 메커니즘(152, 154 및 156)을 포함한다. 규모 사용자 입력 메커니즘(152)은 사용자(124)가 근접 센서 컴포넌트(116)가 사용자의 얼굴이 모바일 디바이스(100)로부터 멀리 떨어져 있다는 것을 나타낼 때 행해지는 UI 조절의 규모를 설정할 수 있게 한다. 사용자 입력 메커니즘(154)은 사용자가 거리가 중간 또는 보통 범위에 있을 때 행해지는 조절의 규모를 설정할 수 있게 하고, 사용자 입력 메커니즘(156)은 사용자(124)가 사용자의 얼굴이 모바일 디바이스(100)에 가까이 있을 때의 조절 규모를 설정할 수 있게 한다. 유의할 점은 도 3a가 사용자 구성가능 설정에 대한 일 실시예를 나타낸 것에 불과하고, 다른 것들이 또한 사용될 수 있다는 것이다.
사용자가 근접성 기반 UI 조절을 구성한 후에, 근접 센서 컴포넌트(116)는 모바일 디바이스에 대한 사용자의 얼굴의 근접성을 나타내는 근접성 메트릭을 획득한다. 이것은 도 2에서 블록(148)에 의해 나타내어져 있다. 이것은 아주 다양한 상이한 방식으로 행해질 수 있다. 예를 들면, 일 실시예에서, 근접 센서 컴포넌트(116)는 적외선 센서 입력(158)을 제공하는 적외선 센서를 포함한다. 컴포넌트(116)는 이어서, 적외선 센서 입력 신호에 기초하여, 사용자의 얼굴과 적외선 센서 사이의 거리를 계산한다.
다른 실시예에서, 근접 센서 컴포넌트(116)는 카메라 입력(160)을 제공하는 카메라를 포함한다. 컴포넌트(116)는 이어서, 카메라 입력에 기초하여, 사용자의 얼굴이 카메라로부터 떨어져 있는 거리를 계산한다. 예로서, 사용자가 카메라를 사용자의 얼굴로부터 약 6 인치(또는 다른 명시된 거리) 떨어지게 잡고 있도록 요청받는 경우, 사용자(124)는 교정 프로세스를 거치도록 요구받을 수 있다. 근접 센서 컴포넌트(116)는 이어서 거리를 포착된 이미지에서의 사용자의 얼굴의 대략적인 반경에 상관시키기 위해 얼굴 인식을 사용할 수 있다. 컴포넌트(116)는 이어서 나중의 측정 동안 사용자의 얼굴이 카메라로부터 떨어져 있는 거리를 계산하기 위해 그 교정을 사용할 수 있다. 또한, 근접 센서 컴포넌트(116)는 근접성 메트릭을 다른 방식으로도 발생시킬 수 있고, 이것은 블록(162)에 의해 나타내어져 있다.
모바일 디바이스(100)는 이어서 다른 센서(118)로부터의 임의의 다른 센서 입력, 또는 근접성 기반 UI 조절을 하는 데 고려될 다른 정보를 수신한다. 이것은 블록(164)에 의해 나타내어져 있다. 예를 들면, UI 조절 컴포넌트(110)는 주변광 센서(166)로부터, 가속도계(168)로부터, 배향 센서(170)로부터, 헤드폰 잭(172)으로부터 입력을 수신할 수 있거나, 블록(174)에 의해 나타낸 바와 같이 다른 센서 입력 또는 다른 정보를 수신할 수 있다. UI 조절 컴포넌트(110)는 이어서 근접성 메트릭 및 다른 센서 입력 또는 고려되어야 하는 다른 정보(있는 경우)에 기초하여 UI 조절 정보를 계산한다. 이것은 도 2에서 블록(176)에 의해 나타내어져 있다. 예를 들면, UI 조절 컴포넌트(110)(또는 UI 조절을 하는 임의의 다른 컴포넌트)는 수신된 정보에 기초하여 행할 특정 UI 조절(예컨대, 텍스트 폰트 크기를 X로 증가시키고 백라이트를 증가시키는 것 등)을 계산한다. 모바일 디바이스(100)의 사용자 인터페이스 상에 제공되는 정보를 조절하는 데 사용하기 위해 UI 조절 정보가 이어서 출력된다. 이것은 도 2에서 블록(178)에 의해 나타내어져 있다.
유의할 점은 UI 조절 정보가 UI 조절을 행할 수 있는 모바일 디바이스(100) 상의 아주 다양한 다른 컴포넌트들 또는 항목들에 출력될 수 있다는 것이다. 예를 들면, 도 2의 흐름도에서 블록(180)에 의해 나타낸 바와 같이, UI 조절 정보가 다른 애플리케이션(108)으로 출력될 수 있다. 블록(182)에 의해 나타낸 바와 같이, UI 조절 정보가 또한 운영 체제로 출력될 수 있다. 블록(184)에 의해 나타낸 바와 같이, UI 조절 정보가 다른 애플리케이션의 개발을 위해 써드파티 개발자에게 이용가능하게 될 수 있거나, 다른 항목(186)으로도 출력될 수 있다.
UI 조절 정보가 제공될 수 있는 다른 애플리케이션은 아주 다양한 상이한 유형의 애플리케이션들 중 임의의 것일 수 있다. 예를 들면, 다른 애플리케이션은 운동 애플리케이션(188), 접근성 애플리케이션(190), 리더 애플리케이션(reader application)(192), 생산성 애플리케이션(194)(워드 프로세싱 애플리케이션, 스프레드시트, 프레젠테이션 애플리케이션, 기타 등등), 엔터테인먼트 애플리케이션(196) 또는 다른 애플리케이션(198)일 수 있다. UI 조절 정보가 어디에서 제공되는지에 관계없이, UI 내용, 또는 내용의 시각적 특성이 예시적으로 UI 조절 정보에 기초하여 조절된다. 일 실시예에서, 사용자는 먼저 조절을 통지받고 그를 취소하는 옵션을 제공받을 수 있다. 이것은 도 2에서 블록(199)에 의해 나타내어져 있다. 그 경우에, 어떤 조절도 행해지지 않는다. 사용자가 조절을 취소하지 않는 것으로 가정하면, UI 조절이 행해진다. 이것은 도 2의 흐름도에서 블록(200)에 의해 나타내어져 있다.
앞서 간략히 언급된 바와 같이, 조절은 아주 다양한 상이한 형태들을 취할 수 있다. 예를 들어, UI 조절은 폰트 크기를 조절하는 것(202), 이미지 크기를 조절하는 것(204), 블록(206)에 의해 나타낸 바와 같이 모바일 디바이스(100)의 조명 특성을 조절하는 것일 수 있거나, 블록(208)에 의해 나타낸 바와 같이 피드백 모드에 대한 조절(비디오 피드백으로부터 오디오 피드백 모드로 전환하는 것 등)일 수 있거나, 블록(210)에 의해 나타낸 바와 같이, 아주 다양한 다른 조절도 포함할 수 있다.
행해질 수 있는 UI 조절의 다수의 상이한 예가 이제부터 도 3b 내지 도 3h와 관련하여 기술될 것이다. 예를 들면, 사용자(124)가 문서를 읽고 있거나 그렇지 않고 텍스트를 모바일 디바이스(100)의 디스플레이 디바이스(114) 상에 디스플레이하고 있는 것으로 가정한다. 도 3b는 이것의 일 실시예를 나타낸 것이다. 도 3b에서 모바일 디바이스(100)가 특정 폰트 크기의 텍스트를 보여주는 사용자 인터페이스 디스플레이(212)를 가지고 있다는 것을 알 수 있다.
다음에 근접 센서 컴포넌트(116)가 사용자가 디바이스를 사용자의 얼굴로부터 더 멀리 떨어지게 이동시켰다는 것을 가정된다. 그 경우에, UI 조절 컴포넌트(110)는 예시적으로, 디바이스가 거리의 변화에 기초하여 UI 내용을 조절하기 전에, 사용자 통지를 제공할 수 있다. 도 3c는 이것의 일 실시예를 나타낸 것이다. 도 3c에 도시된 실시예에서, 사용자 인터페이스 디스플레이(212)는 이제 통지 디스플레이 부분(214)을 포함한다. 통지 디스플레이 부분(214)은 UI 디스플레이 상의 내용이 거리에 대해 조절되고 있는 중임을 사용자에게 통지한다. 일 실시예에서, 사용자는 조절을 취소하기 위해 또는 사용자가 UI 조절 설정을 재구성할 수 있도록 사용자를 설정으로 안내하기 위해 통지 디스플레이 부분(214)을 단순히 탭핑(tap)할 수 있다.
사용자가 UI 조절을 취소하지 않는 것으로 가정하여, 도 3d는 사용자 인터페이스 디스플레이(212)가 이제 텍스트 디스플레이를 포함하는 모바일 디바이스(112)의 일 실시예를 나타낸 것이다. 사용자의 얼굴과 모바일 디바이스(100) 사이의 증가된 거리에 대해 부응하기 위해, 텍스트가 보다 큰 폰트로 디스플레이되어 있다는 것을 알 수 있다.
도 3e는 상이한 사용자 인터페이스 조절을 예시하기 위해 사용자 인터페이스 디스플레이의 다른 예를 나타낸 것이다. 도 3e에서, 모바일 디바이스(100)는 복수의 상이한 사진(218)을 디스플레이하고 있는 사용자 인터페이스 디스플레이(216)를 갖는다. 디스플레이가 사용자의 얼굴이 모바일 디바이스(100)로부터 떨어져 있는 현재 거리에 기초하여 조절된다. 도 3f는 사용자가 모바일 디바이스(100)를 자신의 얼굴에 보다 가까이 이동시킨 것을 나타낸 것이다. 이와 같이, 사용자 인터페이스 디스플레이(216)는 사용자 인터페이스 내용이 거리에 대해 조절되고 있는 중임을 나타내는 사용자 통지 디스플레이 부분(214)을 또다시 디스플레이할 수 있다. 다시 말하지만, 사용자는 조절을 취소하거나 조절 설정 디스플레이로 탐색해 갈 수 있거나, 단순히 조절이 일어날 수 있게 할 수 있다.
도 3g는 사용자가 도 3f에서의 조절이 일어날 수 있게 한 경우의 모바일 디바이스(100)의 일 실시예를 나타낸 것이다. 도 3g에서 사용자 인터페이스 디스플레이(216)가 이제 부가 콘텐츠를 디스플레이한다는 것을 알 수 있다. 즉, 사용자 인터페이스 디스플레이(216)는 사용자의 얼굴과 모바일 디바이스(100) 사이의 감소된 거리에 대해 부응하기 위해 그 위에 디스플레이되는 사진들(218)의 각각의 사진의 크기를 감소시켰고, 따라서 디스플레이되는 사진들의 개수를 증가시켰다.
도 3h는 근접성 메트릭(예컨대, 사용자의 얼굴이 모바일 디바이스(100)로부터 떨어져 있는 감지된 거리)이 가속도계의 출력과 결합되는 일 실시예를 나타낸 것이다. 도 3h는 모바일 디바이스(100)가 운동 애플리케이션을 실행하고 있는 것을 나타낸다. 따라서, 모바일 디바이스(100)는 운동 애플리케이션에 의해 발생된 사용자 인터페이스 디스플레이(220)를 포함한다. 운동 애플리케이션은, 센서 컴포넌트(116) 및 가속도계로부터의 입력에 기초하여, 모바일 디바이스(100) 상에 디스플레이되는 정보를 완전히 변경할 수 있다. 운동 애플리케이션이 실행 중인 애플리케이션, 또는, 예를 들면, 자전거 타기 애플리케이션(biking application)인 경우, 가속도계 출력(또는 GPS 출력 또는 다른 센서 출력)은 사용자의 이동(travel) 속도 및 방향을 나타낼 수 있다. 그 경우에, 운동 애플리케이션은 디스플레이를 변경하기 위해, 컴포넌트(116)에 의해 출력되는 거리 메트릭에 부가하여, 그 정보를 사용할 수 있다. 사용자의 얼굴이 모바일 디바이스(100)로부터 비교적 멀리 떨어져 있는 경우, 운동 애플리케이션은 사전 매핑된 경로(pre-mapped path) 상에서의 방향 및 이동한 거리를 보여줄 수 있다. 사용자 인터페이스(220)가 이동할 방향을 사용자에게 개괄적으로 알려주는 방향 표시자(222)를 포함한다는 것을 알 수 있다. 사용자 인터페이스(220)는 이동한 거리 및 걸은 걸음 수를, 각각, 나타내는 이동한 거리 표시자(224) 및 걸음 수 표시자(226)를 포함한다.
앞서 논의된 예들이 예시적인 것에 불과하고 아주 다양한 다른 UI 조절도 행해질 수 있다는 것을 잘 알 것이다. 예를 들면, 사용자 인터페이스는 사진 또는 비디오의 큰, 작은 또는 전체 화면 미리 보기를 보여주도록 조절될 수 있다. 사용자 인터페이스는, 감지된 거리 메트릭에 기초하여, 소셜 네트워크 애플리케이션 또는 뉴스 리더 애플리케이션에 관한 상이한 레벨의 정보를 제시하는 데 사용될 수 있다. 예로서, 뉴스 리더 애플리케이션에서, 사용자가 모바일 디바이스(100)로부터 비교적 먼 거리에서 검출될 때, 사용자 인터페이스가 헤드라인만을 보여주도록 조절될 수 있고, 거리 메트릭이 감소됨에 따라 사용자 인터페이스가 점점 더 많은 수의 줄의 뉴스 기사를 보여주도록 조절될 수 있다. 애플리케이션이 소셜 네트워크 애플리케이션인 경우에, 게시물의 개수 또는 게시물 내의 내용이 감지된 거리 메트릭에 기초하여 증가되거나 감소될 수 있다. 엔터테인먼트 애플리케이션은 거리 메트릭이 비교적 클 때는 앨범 커버만을 보여주도록 그리고 거리 메트릭이 감소될 때는 디스플레이되는 상세 정보(아티스트, 가사, 기타 등등)를 증가시키도록 사용자 인터페이스를 조절할 수 있다. 애플리케이션이 접근성 애플리케이션인 경우에, 디바이스(100) 상의 접근성 설정이 켜져 있으면, 텍스트가 그렇지 않은 경우에 디스플레이되는 것보다 훨씬 더 크도록 조절될 수 있다. 모바일 디바이스(100)가 리더(reader)이거나 뷰어(viewer)이면, 사용자가 저조도 상태(low light condition)에서 읽고 있는 경우, 사용자 인터페이스의 색상이 보다 나은 밤 시간 독서를 위해 흑색 배경 상에 백색 텍스트를 보여주도록 자동으로 반전될 수 있도록, 거리 메트릭이 주변광 센서 신호와 결합될 수 있다. 이들은 예에 불과하다.
본 논의는 프로세서 및 서버를 언급하였다. 일 실시예에서, 프로세서 및 서버는, 별도로 도시되지 않은, 연관된 메모리 및 타이밍 회로부를 갖는 컴퓨터 프로세서를 포함한다. 프로세서 및 서버는 그들이 속해 있고 활성화되는 시스템 또는 디바이스의 기능 부분이고, 그 시스템 내의 다른 컴포넌트 또는 항목의 기능을 용이하게 한다.
또한, 다수의 사용자 인터페이스 디스플레이가 논의되었다. 사용자 인터페이스 디스플레이는 아주 다양한 상이한 형태를 취할 수 있고, 그 위에 배치되는 아주 다양한 상이한 사용자 작동가능 입력 메커니즘(user actuatable input mechanism)을 가질 수 있다. 예를 들면, 사용자 작동가능 입력 메커니즘은 텍스트 박스, 체크 박스, 아이콘, 링크, 드롭다운 메뉴, 검색 박스 등일 수 있다. 그들은 또한 아주 다양한 상이한 방식으로 작동될 수 있다. 예를 들면, 그들은 포인트 앤 클릭 디바이스(point and click device)(트랙볼 또는 마우스 등)를 사용하여 작동될 수 있다. 그들은 하드웨어 버튼, 스위치, 조이스틱 또는 키보드, 썸 스위치(thumb switch) 또는 썸 패드 등을 사용하여 작동될 수 있다. 그들은 또한 가상 키보드 또는 다른 가상 액추에이터(virtual actuator)를 사용하여 작동될 수 있다. 그에 부가하여, 그들이 디스플레이되는 스크린이 터치 감응 스크린인 경우, 그들은 터치 제스처를 사용하여 작동될 수 있다. 또한, 그들을 디스플레이하는 디바이스가 음성 인식 컴포넌트를 가지는 경우, 그들이 음성 명령을 사용하여 작동될 수 있다.
다수의 데이터 저장소가 또한 논의되었다. 유의할 점은 그들 각각이 다수의 데이터 저장소로 나누어질 수 있다는 것이다. 모두가 그들에 액세스하는 시스템에 로컬일 수 있거나, 모두가 원격일 수 있거나, 일부는 로컬일 수 있는 반면 다른 것들은 원격이다. 이 구성들 모두가 본원에서 생각되고 있다.
또한, 도면들이 각각의 블록에 부여된 기능을 갖는 다수의 블록을 나타내고 있다. 유의할 점은 보다 적은 수의 블록이 사용될 수 있고 따라서 기능이 보다 적은 수의 컴포넌트에 의해 수행된다는 것이다. 또한, 기능이 보다 많은 컴포넌트들 간에 분산되어 있는 경우 보다 많은 블록들이 사용될 수 있다.
도 4는 본 시스템(또는 그의 일부)이 설치될 수 있는, 사용자의 또는 고객의 모바일 디바이스(100)로서 사용될 수 있는 핸드헬드 또는 모바일 컴퓨팅 디바이스의 다른 예시적인 실시예의 다른 블록도이다. 이는 모바일 디바이스의 몇몇 부분들의 보다 상세한 실시예를 나타낸다. 도 5 내지 도 8은 핸드헬드 또는 모바일 디바이스의 예이다.
디바이스(16)에서, 핸드헬드 디바이스가 다른 컴퓨팅 디바이스와 통신할 수 있게 하고 일부 실시예 하에서 정보를 자동으로, 예컨대, 스캐닝에 의해, 수신하기 위한 채널을 제공하는 통신 링크(13)가 제공된다. 통신 링크(13)의 예는 적외선 포트, 직렬/USB 포트, 이더넷 포트와 같은 케이블 네트워크 포트, 및 네트워크에 셀룰러 액세스를 제공하는 데 사용되는 무선 서비스인, GPRS(General Packet Radio Service), LTE, HSPA, HSPA+ 그리고 다른 3G 및 4G 무선 프로토콜, lXrtt, 및 단문 메시지 서비스는 물론, 네트워크에 로컬 무선 연결을 제공하는, 802.11 및 802.11b(Wi-Fi) 프로토콜, 및 블루투스 프로토콜을 비롯한 하나 이상의 통신 프로토콜을 통한 통신을 가능하게 하는 무선 네트워크 포트를 포함한다.
다른 실시예 하에서, 애플리케이션 또는 시스템은 SD(Secure Digital) 카드 인터페이스(15)에 연결되는 착탈식 SD 카드를 통해 수신된다. SD 카드 인터페이스(15) 및 통신 링크(13)는 메모리(21) 및 I/O(input/output) 컴포넌트(23)는 물론 시계(25) 및 위치 확인 시스템(27)에도 연결되는 버스(19)를 따라 (도 1로부터의 프로세서(102)도 구현할 수 있는) 프로세서(17)와 통신한다.
I/O 컴포넌트(23)는, 일 실시예에서, 입력 및 출력 동작을 용이하게 하기 위해 제공된다. I/O 컴포넌트(23)는, 디바이스(16)의 다양한 실시예에서, 버튼, 터치 센서, 멀티 터치 센서, 광 또는 비디오 센서, 음성 센서, 터치 스크린, 근접 센서, 마이크로폰, 기울기 센서, 및 중력 스위치와 같은 입력 컴포넌트 그리고 디스플레이 디바이스, 스피커 및/ 프린터 포트와 같은 출력 컴포넌트를 포함할 수 있다. 다른 I/O 컴포넌트(23)도 사용될 수 있다.
시계(25)는 예시적으로 시간 및 날짜를 출력하는 실시간 시계 컴포넌트를 포함한다. 시계(25)는 또한, 예시적으로, 프로세서(17)에 대한 타이밍 기능을 제공할 수 있다.
위치 확인 시스템(27)은 예시적으로 디바이스(16)의 현재 지리적 위치를 출력하는 컴포넌트를 포함한다. 이것은, 예를 들면, GPS(global positioning system) 수신기, LORAN 시스템, 추측 항법 시스템(dead reckoning system), 셀룰러 삼각 측량 시스템, 또는 다른 위치 결정 시스템을 포함할 수 있다. 이는 또한, 예를 들어, 원하는 지도, 내비게이션 경로 및 다른 지리적 기능을 발생시키는 지도 소프트웨어(mapping software) 또는 내비게이션 소프트웨어를 포함할 수 있다.
메모리(21)는 운영 체제(29), 네트워크 설정(31), 애플리케이션(33), 애플리케이션 구성 설정(35), 데이터 저장소(37), 통신 드라이버(39), 및 통신 구성 설정(41)을 저장한다. 메모리(21)는 모든 종류의 유형적 휘발성 및 비휘발성 컴퓨터 판독가능 메모리 디바이스를 포함할 수 있다. 메모리(21)는 또한 컴퓨터 저장 매체(이하에서 기술됨)를 포함할 수 있다. 메모리(21)는, 프로세서(17)에 의해 실행될 때, 프로세서로 하여금 명령어에 따라 컴퓨터 구현 단계 또는 기능을 수행하게 하는 컴퓨터 판독가능 명령어를 저장한다. 프로세서(17)는 다른 컴포넌트의 기능도 용이하게 하기 위해 다른 컴포넌트에 의해 활성화될 수 있다.
네트워크 설정(31)의 예는 프록시 정보, 인터넷 연결 정보, 및 매핑과 같은 것을 포함한다. 애플리케이션 구성 설정(35)은 특정의 기업 또는 사용자에 대한 애플리케이션을 조정하는 설정을 포함한다. 통신 구성 설정(41)은 다른 컴퓨터와 통신하기 위한 파라미터를 제공하고, GPRS 파라미터, SMS 파라미터, 연결 사용자 이름 및 패스워드와 같은 항목을 포함한다.
애플리케이션(33)은 디바이스(16)에 이전에 저장된 애플리케이션 또는 사용 동안 설치되는 애플리케이션일 수 있지만, 이들이 또한 운영 체제(29)의 일부이거나 디바이스(16)의 외부에서 호스팅될 수 있다.
도 5는 디바이스(16)가 태블릿 컴퓨터(600)인 일 실시예를 나타낸다. 도 5에서, 디스플레이 화면(602) 상에 디스플레이되는 도 3a로부터의 사용자 인터페이스 디스플레이를 갖는 컴퓨터(600)가 도시되어 있다. 스크린(602)은 터치 스크린(따라서 사용자의 손가락(604)으로부터의 터치 제스처가 애플리케이션과 상호작용하는 데 사용될 수 있음) 또는 펜 또는 스타일러스로부터의 입력을 수신하는 펜 기반 인터페이스(pen-enabled interface)일 수 있다. 스크린(602)은 또한 온스크린 가상 키보드를 사용할 수 있다. 물론, 스크린(602)은 또한, 예를 들어, 무선 링크 또는 USB 포트와 같은 적당한 접속 메커니즘(attachment mechanism)을 통해 키보드 또는 다른 사용자 입력 디바이스에 접속될 수 있다. 컴퓨터(600)는 또한 예시적으로 음성 입력도 수신할 수 있다.
도 6 및 도 7은 사용될 수 있는 디바이스(16)의 부가 예를 제공하지만, 다른 것도 사용될 수 있다. 도 6에서, 피처 폰(feature phone), 스마트폰 또는 휴대폰(45)이 디바이스(16)로서 제공된다. 전화기(45)는 전화 번호를 다이얼링하기 위한 한 세트의 키패드(47), 애플리케이션 이미지, 아이콘, 웹 페이지, 사진, 및 비디오를 비롯한 이미지을 디스플레이할 수 있는 디스플레이(49), 그리고 디스플레이 상에 보여지는 항목을 선택하기 위한 제어 버튼(51)을 포함한다. 전화기는 GPRS(General Packet Radio Service) 및 lXrtt와 같은 셀룰러 전화 신호 그리고 SMS(Short Message Service) 신호를 수신하기 위한 안테나(53)를 포함한다. 일부 실시예에서, 전화기(45)는 또한 SD(Secure Digital) 카드(57)를 받아들이는 SD 카드 슬롯(55)을 포함한다.
도 7의 모바일 디바이스는 PDA(personal digital assistant)(59) 또는 멀티미디어 플레이어 또는 태블릿 컴퓨팅 디바이스 등(이후부터 PDA(59)라고 지칭됨)이다. PDA(59)는 스타일러스가 스크린 위쪽에 위치될 때 스타일러스(63)(또는 사용자의 손가락과 같은 다른 포인터)의 위치를 감지하는 유도성 스크린(inductive screen)(61)을 포함한다. 이것은 사용자가 스크린 상의 항목을 선택하고, 하이라이트하며 이동시키는 것은 물론 그리는 것 및 쓰는 것을 가능하게 한다. PDA(59)는 또한, 디스플레이(61)와 접촉함이 없이, 사용자가 디스플레이(61) 상에 디스플레이되는 메뉴 옵션 또는 다른 디스플레이 옵션을 스크롤할 수 있게 하고 사용자가 애플리케이션을 변경하거나 사용자 입력 기능을 선택할 수 있게 하는 다수의 사용자 입력 키 또는 버튼(버튼(65) 등)을 포함한다. 비록 도시되어 있지는 않지만, PDA(59)는 다른 컴퓨터와의 무선 통신을 가능하게 하는 내부 안테나 및 적외선 송신기/수신기는 물론, 다른 컴퓨팅 디바이스에의 하드웨어 연결을 가능하게 하는 연결 포트를 포함할 수 있다. 이러한 하드웨어 연결은 전형적으로 직렬 또는 USB 포트를 통해 다른 컴퓨터에 연결하는 크레이들(cradle)을 통해 행해진다. 그에 따라, 이 연결은 비네트워크 연결(non-network connection)이다. 일 실시예에서, 모바일 디바이스(59)는 또한 SD 카드(69)를 받아들이는 SD 카드 슬롯(67)을 포함한다.
도 8은, 전화기가 스마트폰(71)인 것을 제외하고는, 도 6과 유사하다. 스마트폰(71)은 아이콘 또는 타일 또는 다른 사용자 입력 메커니즘(75)을 디스플레이하는 터치 감응 디스플레이(73)를 갖는다. 애플리케이션을 실행하기 위해, 전화를 걸기 위해, 데이터 전송 동작을 수행하기 위해, 기타를 위해 메커니즘(75)이 사용자에 의해 사용될 수 있다. 일반적으로, 스마트폰(71)은 모바일 운영 체제 상에 구축되고, 피처 폰보다 더 진보된 컴퓨팅 능력 및 연결을 제공한다.
유의할 점은 다른 형태의 디바이스(16)가 가능하다는 것이다.
도 9는 UI 조절 컴포넌트(110)가 설치될 수 있는 다른 컴퓨팅 환경의 일 실시예이다. 도 9를 참조하면, 일부 실시예를 구현하는 예시적인 시스템은 컴퓨터(810) 형태의 범용 컴퓨팅 디바이스를 포함한다. 컴퓨터(810)의 컴포넌트는 (프로세서(102)를 포함할 수 있는) 처리 유닛(802), 시스템 메모리(830), 및 시스템 메모리를 비롯한 다양한 시스템 컴포넌트를 처리 유닛(820)에 결합시키는 시스템 버스(821)를 포함할 수 있지만, 이들로 제한되지 않는다. 시스템 버스(821)는 메모리 버스 또는 메모리 제어기, 주변기기 버스, 및 각종의 버스 아키텍처 중 임의의 것을 사용하는 로컬 버스를 비롯한 몇가지 유형의 버스 구조 중 임의의 것일 수 있다. 제한이 아닌 예로서, 이러한 아키텍처는 ISA(Industry Standard Architecture) 버스, MCA(Micro Channel Architecture) 버스, EISA(Enhanced ISA) 버스, VESA(Video Electronics Standards Association) 로컬 버스, 및 메자닌(Mezzanine) 버스라고도 알려진 PCI(Peripheral Component Interconnect) 버스를 포함한다. 도 1과 관련하여 기술된 메모리 및 프로그램이 도 9의 대응하는 부분에 설치될 수 있다.
컴퓨터(810)는 전형적으로 다양한 컴퓨터 판독가능 매체를 포함한다. 컴퓨터 판독가능 매체는 컴퓨터(810)에 의해 액세스될 수 있는 임의의 이용가능한 매체일 수 있고, 휘발성 및 비휘발성 매체, 착탈식 및 비착탈식 매체 둘 다를 포함한다. 제한이 아닌 예로서, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 포함할 수 있다. 컴퓨터 저장 매체는 피변조 데이터 신호(modulated data signal) 또는 반송파와 상이하고 이들을 포함하지 않는다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 다른 데이터와 같은 정보를 저장하기 위해 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성, 착탈식 및 비착탈식 매체 둘 다를 포함하는 하드웨어 저장 매체를 포함한다. 컴퓨터 저장 매체는 RAM, ROM, EEPROM, 플래시 메모리 또는 다른 메모리 기술, CD-ROM, DVD(digital versatile disk) 또는 다른 광 디스크 저장소, 자기 카세트, 자기 테이프, 자기 디스크 저장소 또는 다른 자기 저장 디바이스, 또는 원하는 정보를 저장하는 데 사용될 수 있고 컴퓨터(810)에 의해 액세스될 수 있는 임의의 다른 매체를 포함하지만, 이들로 제한되지 않는다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 다른 데이터를 전송 메커니즘에 구현하고 임의의 정보 전달 매체를 포함한다. "피변조 데이터 신호"라는 용어는 신호의 특성들 중 하나 이상이 정보를 그 신호에 인코딩하는 방식으로 설정되거나 변경된 신호를 의미한다. 제한이 아닌 예로서, 통신 매체는 유선 네트워크 또는 직접 유선 연결(direct-wired connection)과 같은 유선 매체와, 음향, RF, 적외선 및 다른 무선 매체와 같은 무선 매체를 포함한다. 상기한 것들 중 임의의 것의 조합도 역시 컴퓨터 판독가능 매체의 범주 내에 포함되어야 한다.
시스템 메모리(830)는 ROM(read only memory)(831) 및 RAM(random access memory)(832)과 같은 휘발성 및/또는 비휘발성 메모리 형태의 컴퓨터 저장 매체를 포함한다. 시동 중과 같은 때에 컴퓨터(810) 내의 요소들 간의 정보 전송을 돕는 기본 루틴이 들어 있는 기본 입출력 시스템(833)(BIOS)은 전형적으로 ROM(831)에 저장된다. RAM(832)에는 전형적으로 처리 유닛(820)에 의해 즉각 액세스될 수 있고 그리고/또는 현재 처리되고 있는 데이터 및/또는 프로그램 모듈이 들어 있다. 제한이 아닌 예로서, 도 9는 운영 체제(834), 애플리케이션 프로그램(835), 다른 프로그램 모듈(836), 및 프로그램 데이터(837)를 나타내고 있다.
컴퓨터(810)는 또한 다른 착탈식/비착탈식 휘발성/비휘발성 컴퓨터 저장 매체를 포함할 수 있다. 단지 예로서, 도 9는 비착탈식, 비휘발성 자기 매체로부터 읽거나 그에 쓰는 하드 디스크 드라이브(841), 착탈식, 비휘발성 자기 디스크(852)로부터 읽거나 그에 쓰는 자기 디스크 드라이브(851), 및 CD-ROM 또는 다른 광 매체와 같은 착탈식, 비휘발성 광 디스크(856)로부터 읽거나 그에 쓰는 광 디스크 드라이브(855)를 나타내고 있다. 예시적인 운영 환경에서 사용될 수 있는 다른 착탈식/비착탈식, 휘발성/비휘발성 컴퓨터 저장 매체는 자기 테이프 카세트, 플래시 메모리 카드, DVD(digital versatile disk), 디지털 비디오 테이프, 고상 RAM(solid state RAM), 고상 ROM(solid state ROM) 등을 포함하지만, 이들로 제한되지 않는다. 하드 디스크 드라이브(841)는 전형적으로 인터페이스(840)와 같은 비착탈식 메모리 인터페이스를 통해 시스템 버스(821)에 연결되고, 자기 디스크 드라이브(851) 및 광 디스크 드라이브(855)는 전형적으로 인터페이스(850)와 같은 착탈식 메모리 인터페이스에 의해 시스템 버스(821)에 연결된다.
대안적으로 또는 그에 부가하여, 본 명세서에 기술된 기능이, 적어도 부분적으로, 하나 이상의 하드웨어 로직 구성요소들에 의해 수행될 수 있다. 제한이 아닌 예로서, 사용될 수 있는 예시적인 유형의 하드웨어 로직 구성요소들은 FPGA(Field-programmable Gate Array), ASIC(Program-specific Integrated Circuit), ASSP(Program-specific Standard Product), SOC(System-on-a-chip system), CPLD(Complex Programmable Logic Device) 등을 포함한다.
이상에서 설명되고 도 9에 도시되어 있는 드라이브들 및 이들과 연관된 컴퓨터 저장 매체는 컴퓨터(810)에 대한 컴퓨터 판독가능 명령, 데이터 구조, 프로그램 모듈 및 기타 데이터의 저장을 제공한다. 도 9에서, 예를 들어, 하드 디스크 드라이브(841)는 운영 체제(844), 애플리케이션 프로그램(845), 다른 프로그램 모듈(846), 및 프로그램 데이터(847)를 저장하는 것으로 예시되어 있다. 유의할 점은 이 컴포넌트들이 운영 체제(834), 애플리케이션 프로그램(835), 다른 프로그램 모듈(836), 및 프로그램 데이터(837)와 동일하거나 상이할 수 있다는 것이다. 여기서 운영 체제(844), 애플리케이션 프로그램(845), 다른 프로그램 모듈(846), 및 프로그램 데이터(847)에 상이한 참조 번호가 부여되어 있는 것은 최소한 이들이 상이한 사본임을 나타내기 위한 것이다.
사용자는 키보드(862), 마이크로폰(863), 및 포인팅 디바이스(861)(마우스, 트랙볼 또는 터치 패드 등)와 같은 입력 디바이스를 통해 컴퓨터(810)에 명령 및 정보를 입력할 수 있다. 다른 입력 디바이스(도시되지 않음)는 조이스틱, 게임 패드, 위성 안테나, 스캐너 등을 포함할 수 있다. 이들 및 다른 입력 디바이스는 종종 시스템 버스에 결합되는 사용자 입력 인터페이스(860)를 통해 처리 유닛(820)에 연결되지만, 병렬 포트, 게임 포트 또는 USB(universal serial bus)와 같은 다른 인터페이스 및 버스 구조에 의해 연결될 수 있다. 시각적 디스플레이(891) 또는 다른 유형의 디스플레이 디바이스가 또한, 비디오 인터페이스(890)와 같은, 인터페이스를 통해 시스템 버스(821)에 연결된다. 모니터에 부가하여, 컴퓨터는 또한 출력 주변기기 인터페이스(895)를 통해 연결될 수 있는 스피커(897) 및 프린터(896)와 같은 다른 주변기기 출력 디바이스를 포함할 수 있다.
컴퓨터(810)는 원격 컴퓨터(880)와 같은 하나 이상의 원격 컴퓨터와의 논리적 연결을 사용하여 네트워크화된 환경에서 동작될 수 있다. 원격 컴퓨터(880)는 개인용 컴퓨터, 핸드헬드 디바이스, 서버, 라우터, 네트워크 PC, 피어 디바이스(peer device) 또는 다른 통상의 네트워크 노드일 수 있고, 전형적으로 컴퓨터(810)와 관련하여 앞서 기술된 요소들 중 다수 또는 전부를 포함한다. 도 9에 도시된 논리적 연결은 LAN(local area network: 근거리 네트워크)(871) 및 WAN(wide area network: 원거리 네트워크)(873)을 포함하지만, 다른 네트워크도 포함할 수 있다. 이러한 네트워킹 환경은 사무실, 전사적 컴퓨터 네트워크(enterprise-wide computer network), 인트라넷 및 인터넷에서 흔한 것이다.
LAN 네트워킹 환경에서 사용될 때, 컴퓨터(810)는 네트워크 인터페이스 또는 어댑터(870)를 통해 LAN(871)에 연결된다. WAN 네트워킹 환경에서 사용될 때, 컴퓨터(810)는 전형적으로 인터넷과 같은 WAN(873)을 통해 통신을 설정하는 모뎀(872) 또는 다른 수단을 포함한다. 내장형 또는 외장형일 수 있는 모뎀(872)은 사용자 입력 인터페이스(860) 또는 다른 적절한 메커니즘을 통해 시스템 버스(821)에 연결될 수 있다. 네트워크화된 환경에서, 컴퓨터(810) 또는 그의 일부분과 관련하여 도시된 프로그램 모듈은 원격 메모리 저장 디바이스에 저장될 수 있다. 제한이 아닌 예로서, 도 9는 원격 애플리케이션 프로그램(885)을 원격 컴퓨터(880)에 존재하는 것으로 예시하고 있다. 도시된 네트워크 연결이 예시적인 것이고 컴퓨터들 간에 통신 링크를 설정하는 다른 수단이 사용될 수 있다는 것을 잘 알 것이다.
또한 유의할 점은 본원에 기술되는 상이한 실시예들이 상이한 방식들로 결합될 수 있다는 것이다. 즉, 하나 이상의 실시예의 부분이 하나 이상의 다른 실시예의 부분과 결합될 수 있다. 이들 모두가 본원에서 생각되고 있다.
발명 요지가 구조적 특징 및/또는 방법 동작과 관련하여 기술되어 있지만, 첨부된 청구항에 한정되어 있는 발명 요지가 앞서 기술된 구체적인 특징 또는 동작으로 꼭 제한될 필요는 없다는 것을 잘 알 것이다. 오히려, 앞서 기술된 구체적인 특징 및 동작은 청구항들을 구현하는 예시적인 형태로서 개시되어 있다.

Claims (10)

  1. 컴퓨팅 디바이스에 있어서,
    정보를 디스플레이하는 디스플레이 디바이스;
    상기 컴퓨팅 디바이스의 일부분에 대한 사용자의 신체의 일부분의 근접성을 감지하는 근접 센서 컴포넌트; 및
    상기 감지된 근접성에 기초하여 상기 디스플레이 디바이스 상에 디스플레이되는 상기 정보의 시각적 특성을 자동으로 조절하는 사용자 인터페이스 조절 컴포넌트
    를 포함하는, 컴퓨팅 디바이스.
  2. 컴퓨터에 의해 실행될 때, 상기 컴퓨터로 하여금 방법을 수행하게 하는 컴퓨터 실행가능 명령어들을 저장하는 컴퓨터 판독가능 저장 매체에 있어서,
    상기 방법은,
    컴퓨팅 디바이스 상의 디스플레이 디바이스로부터의 사용자의 얼굴의 거리를 나타내는 근접 센서 입력을 수신하는 단계; 및
    상기 거리에 기초하여 상기 컴퓨팅 디바이스의 상기 디스플레이 디바이스 상에 디스플레이되는 정보의 크기를 자동으로 조절하는 단계
    를 포함하는, 컴퓨터 판독가능 저장 매체.
  3. 컴퓨터 구현 방법에 있어서,
    컴퓨팅 디바이스에 대한 사용자의 신체의 일부분의 근접성을 나타내는 근접 센서 입력을 수신하는 단계; 및
    상기 근접성에 기초하여 상기 컴퓨팅 디바이스의 디스플레이 디바이스 상에 디스플레이되는 정보의 시각적 특성을 자동으로 조절하는 단계
    를 포함하는, 컴퓨터 구현 방법.
  4. 제3항에 있어서,
    상기 자동으로 조절하는 단계는, 상기 근접성에 기초하여 상기 디스플레이 디바이스 상에 디스플레이되는 상기 정보의 크기를 조절하는 단계를 포함하는 것인, 컴퓨터 구현 방법.
  5. 제4항에 있어서,
    상기 자동으로 조절하는 단계는,
    상기 자동 조절이 수행되고 있다는 것을 나타내는 통지 디스플레이(notification display)를 디스플레이하는 단계;
    상기 통지 디스플레이 상에서 사용자 취소 입력을 수신하는 단계; 및
    상기 사용자 취소 입력을 수신한 것에 응답하여, 상기 자동 조절을 취소하는 단계
    를 포함하는 것인, 컴퓨터 구현 방법.
  6. 제4항에 있어서,
    상기 크기를 조절하는 단계는,
    상기 근접성에 기초하여 상기 디스플레이 디바이스 상에 디스플레이되는 텍스트의 폰트 크기를 변경하는 단계; 및
    상기 근접성에 기초하여 상기 디스플레이 디바이스 상에 디스플레이되는 이미지들의 크기를 변경하는 단계
    를 포함하는 것인, 컴퓨터 구현 방법.
  7. 제3항에 있어서,
    상기 자동으로 조절하는 단계는, 상기 근접성에 기초하여 상기 디스플레이 디바이스 상에서의 조명 상태를 변경하는 단계를 포함하는 것인, 컴퓨터 구현 방법.
  8. 제3항에 있어서,
    상기 자동으로 조절하는 단계는,
    상기 근접성을 애플리케이션에 제공하는 단계; 및
    상기 애플리케이션으로 상기 자동으로 조절하는 단계를 수행하는 단계
    를 포함하는 것인, 컴퓨터 구현 방법.
  9. 제3항에 있어서,
    상기 자동 조절 동안 수행되는 조절들을 구성하는 사용자 구성 입력들을 수신하는 사용자 구성 입력 메커니즘들을 갖는 사용자 구성 디스플레이(user configuration display)를 디스플레이하는 단계를 더 포함하는, 컴퓨터 구현 방법.
  10. 제9항에 있어서,
    상기 사용자 구성 디스플레이를 디스플레이하는 단계는,
    자동 조절을 켜고 끄기 위한 사용자 입력을 수신하는 온/오프 입력 메커니즘을 디스플레이하는 단계;
    자동 조절 동안 행해지는 조절들의 규모(magnitude)를 구성하기 위해 사용자 규모 입력들을 수신하는 규모 사용자 입력 메커니즘을 디스플레이하는 단계; 및
    상기 근접 센서 신호가 상기 근접성이 상이한 범위들에 있다는 것을 나타낼 때 행해지는 조절들의 규모를 구성하기 위해 상기 규모 사용자 입력 메커니즘 상에서 사용자 입력들을 수신하는 단계
    를 포함하는 것인, 컴퓨터 구현 방법.
KR1020167025336A 2014-02-21 2015-02-18 모바일 디바이스 상에 제공된 정보를 조절하기 위한 근접성 감지의 사용 KR20160124808A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/186,184 US9582851B2 (en) 2014-02-21 2014-02-21 Using proximity sensing to adjust information provided on a mobile device
US14/186,184 2014-02-21
PCT/US2015/016235 WO2015126857A1 (en) 2014-02-21 2015-02-18 Using proximity sensing to adjust information provided on a mobile device

Publications (1)

Publication Number Publication Date
KR20160124808A true KR20160124808A (ko) 2016-10-28

Family

ID=52684664

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167025336A KR20160124808A (ko) 2014-02-21 2015-02-18 모바일 디바이스 상에 제공된 정보를 조절하기 위한 근접성 감지의 사용

Country Status (6)

Country Link
US (1) US9582851B2 (ko)
EP (1) EP3108335A1 (ko)
KR (1) KR20160124808A (ko)
CN (1) CN106030464A (ko)
TW (1) TW201535160A (ko)
WO (1) WO2015126857A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190068182A (ko) 2017-12-08 2019-06-18 에스케이텔레콤 주식회사 인공지능 디바이스, 서비스 서버 및 그의 사용자 인터페이스 제공 방법

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105683875B (zh) 2013-09-17 2019-09-24 诺基亚技术有限公司 操作的确定
US9747867B2 (en) * 2014-06-04 2017-08-29 Mediatek Inc. Apparatus and method for performing image content adjustment according to viewing condition recognition result and content classification result
US20150370350A1 (en) * 2014-06-23 2015-12-24 Lenovo (Singapore) Pte. Ltd. Determining a stylus orientation to provide input to a touch enabled device
US10567641B1 (en) * 2015-01-19 2020-02-18 Devon Rueckner Gaze-directed photography
EP3091422B1 (en) * 2015-05-08 2020-06-24 Nokia Technologies Oy Method, apparatus and computer program product for entering operational states based on an input type
US9298283B1 (en) 2015-09-10 2016-03-29 Connectivity Labs Inc. Sedentary virtual reality method and systems
WO2017075049A1 (en) * 2015-10-26 2017-05-04 Withme Nevada, Inc. Reconfigurable product display systems
TWI683233B (zh) * 2016-05-30 2020-01-21 廣達電腦股份有限公司 可攜式電子裝置以及其運作方法
CN106200950B (zh) * 2016-07-01 2019-11-08 Tcl移动通信科技(宁波)有限公司 一种可调整字体大小的方法及移动终端
US9704216B1 (en) * 2016-08-04 2017-07-11 Le Technology Dynamic size adjustment of rendered information on a display screen
US10963044B2 (en) * 2016-09-30 2021-03-30 Intel Corporation Apparatus, system and method for dynamic modification of a graphical user interface
US10237740B2 (en) 2016-10-27 2019-03-19 International Business Machines Corporation Smart management of mobile applications based on visual recognition
DE102016224246B4 (de) * 2016-12-06 2024-07-04 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Interaktion mit einer grafischen Benutzerschnittstelle
CN110914787B (zh) 2017-09-05 2022-07-05 三星电子株式会社 访问计算装置上的数据项
TWI643118B (zh) * 2017-09-25 2018-12-01 冠捷投資有限公司 可感測距離以自動調整顯示資訊量的顯示裝置
CN111656143B (zh) * 2018-01-22 2022-03-25 亚萨合莱有限公司 传感器装置及在传感器装置的功能状态之间转换的方法
CN110162232A (zh) * 2018-02-11 2019-08-23 中国移动通信集团终端有限公司 屏幕显示方法、具有显示屏幕的装置、设备及存储介质
US20190303177A1 (en) * 2018-03-29 2019-10-03 Microsoft Technology Licensing, Llc Adaptive User Interface Based On Detection Of User Positions
US11681415B2 (en) * 2018-10-31 2023-06-20 Apple Inc. Near-viewing notification techniques
US11087778B2 (en) * 2019-02-15 2021-08-10 Qualcomm Incorporated Speech-to-text conversion based on quality metric
US11175809B2 (en) * 2019-08-19 2021-11-16 Capital One Services, Llc Detecting accessibility patterns to modify the user interface of an application
US10923045B1 (en) * 2019-11-26 2021-02-16 Himax Technologies Limited Backlight control device and method
WO2021234785A1 (ja) * 2020-05-18 2021-11-25 日本電信電話株式会社 表示情報制御装置、表示情報制御方法およびプログラム
US11650720B2 (en) 2020-10-06 2023-05-16 International Business Machines Corporation Dynamically adjusting zoom settings by a server in multiple user environments

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7010369B2 (en) * 1997-11-07 2006-03-07 Hill-Rom Services, Inc. Medical equipment controller
US6864912B1 (en) 1999-12-16 2005-03-08 International Business Machines Corp. Computer system providing hands free user input via optical means for navigation or zooming
US7289102B2 (en) * 2000-07-17 2007-10-30 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
JP2003108609A (ja) * 2001-09-26 2003-04-11 Mazda Motor Corp 構造体形状のモーフィング方法及びそのコンピュータ・プログラム、並びにコンピュータ読み取り可能な記憶媒体
US20030142328A1 (en) * 2002-01-31 2003-07-31 Mcdaniel Stanley Eugene Evaluation of image processing operations
EP1426919A1 (en) 2002-12-02 2004-06-09 Sony International (Europe) GmbH Method for operating a display device
JP4036168B2 (ja) * 2003-09-09 2008-01-23 株式会社日立製作所 携帯電話
US8203577B2 (en) * 2007-09-25 2012-06-19 Microsoft Corporation Proximity based computer display
EP2065795A1 (en) * 2007-11-30 2009-06-03 Koninklijke KPN N.V. Auto zoom display system and method
US8209635B2 (en) 2007-12-20 2012-06-26 Sony Mobile Communications Ab System and method for dynamically changing a display
KR101495164B1 (ko) 2008-04-10 2015-02-24 엘지전자 주식회사 이동단말기 및 그 화면 처리 방법
US8957835B2 (en) * 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
GB2467898A (en) 2008-12-04 2010-08-18 Sharp Kk Display with automatic screen parameter adjustment based on the position of a detected viewer
US8256976B2 (en) * 2008-12-29 2012-09-04 Lexmark International, Inc. Edge guide adjustment system
JP2010176170A (ja) 2009-01-27 2010-08-12 Sony Ericsson Mobilecommunications Japan Inc 表示装置、表示制御方法および表示制御プログラム
JP5387020B2 (ja) * 2009-02-05 2014-01-15 株式会社ニコン 画像処理プログラムおよびデジタルカメラ
US20110084897A1 (en) 2009-10-13 2011-04-14 Sony Ericsson Mobile Communications Ab Electronic device
US8843857B2 (en) * 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US8427476B2 (en) 2009-12-14 2013-04-23 Acer Incorporated System and method for automatically adjusting visual setting of display device
US9304591B2 (en) 2010-08-10 2016-04-05 Lenovo (Singapore) Pte. Ltd. Gesture control
KR101731346B1 (ko) 2010-11-12 2017-04-28 엘지전자 주식회사 멀티미디어 장치의 디스플레이화면 제공 방법 및 그에 따른 멀티미디어 장치
JP2012190184A (ja) * 2011-03-09 2012-10-04 Sony Corp 画像処理装置および方法、並びにプログラム
TW201239869A (en) 2011-03-24 2012-10-01 Hon Hai Prec Ind Co Ltd System and method for adjusting font size on screen
US20130057573A1 (en) * 2011-09-02 2013-03-07 DigitalOptics Corporation Europe Limited Smart Display with Dynamic Face-Based User Preference Settings
US20120287163A1 (en) 2011-05-10 2012-11-15 Apple Inc. Scaling of Visual Content Based Upon User Proximity
US8515491B2 (en) 2011-07-28 2013-08-20 Qualcomm Innovation Center, Inc. User distance detection for enhanced interaction with a mobile device
US8754831B2 (en) 2011-08-02 2014-06-17 Microsoft Corporation Changing between display device viewing modes
US20130088434A1 (en) * 2011-10-06 2013-04-11 Sony Ericsson Mobile Communications Ab Accessory to improve user experience with an electronic display
DE102011120714A1 (de) 2011-12-12 2013-06-13 Deutsche Telekom Ag Verfahren zum Darstellen von Grafikelementen auf einem Bildschirm eines elektronischen Endgerätes
JP6196017B2 (ja) * 2012-01-13 2017-09-13 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
WO2013169843A1 (en) * 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013170383A1 (en) * 2012-05-16 2013-11-21 Xtreme Interactions Inc. System, device and method for processing interlaced multimodal user input
EP2664983A3 (en) * 2012-05-17 2018-01-03 LG Electronics, Inc. Mobile terminal and control method therefor
US9658688B2 (en) * 2013-10-15 2017-05-23 Microsoft Technology Licensing, Llc Automatic view adjustment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190068182A (ko) 2017-12-08 2019-06-18 에스케이텔레콤 주식회사 인공지능 디바이스, 서비스 서버 및 그의 사용자 인터페이스 제공 방법

Also Published As

Publication number Publication date
US9582851B2 (en) 2017-02-28
US20150242993A1 (en) 2015-08-27
CN106030464A (zh) 2016-10-12
EP3108335A1 (en) 2016-12-28
TW201535160A (zh) 2015-09-16
WO2015126857A1 (en) 2015-08-27

Similar Documents

Publication Publication Date Title
US9582851B2 (en) Using proximity sensing to adjust information provided on a mobile device
US11024003B2 (en) Method and mobile device for displaying image
WO2021115329A1 (zh) 应用程序的控制方法及电子设备
WO2021104365A1 (zh) 对象分享方法及电子设备
CN106227344B (zh) 电子设备及其控制方法
WO2019174611A1 (zh) 应用程序的设置方法及移动终端
CN107665089B (zh) 触摸屏上的手指识别
US11604535B2 (en) Device and method for processing user input
WO2020258929A1 (zh) 文件夹界面切换方法及终端设备
WO2020134744A1 (zh) 图标移动方法及移动终端
US11209930B2 (en) Method of controlling device using various input types and device for performing the method
EP2677501A2 (en) Apparatus and method for changing images in electronic device
WO2021017749A1 (zh) 图标显示方法及移动终端
JP7338057B2 (ja) メッセージ処理方法及び電子機器
WO2020192298A1 (zh) 图像处理方法及终端设备
WO2020215969A1 (zh) 内容输入方法及终端设备
WO2020155980A1 (zh) 控制方法及终端设备
CN106909366A (zh) 一种微件显示的方法及装置
US11354031B2 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method for controlling a scroll speed of a display screen
CN107168621A (zh) 一种视图滑动控制方法及移动终端
KR20150019061A (ko) 무선 연결 방법 및 그 전자 장치
WO2017035740A1 (zh) 一种选择文本的方法
US20160266947A1 (en) Mobile application memory profiling for custom extensions
US20200033959A1 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method
US20140364062A1 (en) Communication system, specification method, and recording medium

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X601 Decision of rejection after re-examination