KR101876655B1 - 스크린 제어 방법 및 장치 - Google Patents

스크린 제어 방법 및 장치 Download PDF

Info

Publication number
KR101876655B1
KR101876655B1 KR1020167011809A KR20167011809A KR101876655B1 KR 101876655 B1 KR101876655 B1 KR 101876655B1 KR 1020167011809 A KR1020167011809 A KR 1020167011809A KR 20167011809 A KR20167011809 A KR 20167011809A KR 101876655 B1 KR101876655 B1 KR 101876655B1
Authority
KR
South Korea
Prior art keywords
screen
mobile terminal
orientation
predetermined direction
predetermined
Prior art date
Application number
KR1020167011809A
Other languages
English (en)
Other versions
KR20170037869A (ko
Inventor
이 가오
홍퀴앙 왕
윤유안 게
Original Assignee
시아오미 아이엔씨.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 시아오미 아이엔씨. filed Critical 시아오미 아이엔씨.
Publication of KR20170037869A publication Critical patent/KR20170037869A/ko
Application granted granted Critical
Publication of KR101876655B1 publication Critical patent/KR101876655B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3215Monitoring of peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3265Power saving in display device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06K9/00335
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2330/00Aspects of power supply; Aspects of display protection and defect management
    • G09G2330/02Details of power systems and of start or stop of display operation
    • G09G2330/027Arrangements or methods related to powering off a display
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

본 출원은 스크린 제어 방법 및 장치에 관한 것이며, 해당 방법은, 이동 단말의 이동 방향을 검출하는 단계; 이동 단말의 스크린 오리엔테이션을 검출하는 단계; 미리 설정된 웨어러블 스마트 디바이스로부터 송신한 자세 식별 정보를 수신하는 단계; 이동 방향, 스크린 배향, 및 자세 식별 정보에서의 손바닥 배향이 전부 제1 미리 설정된 방향인 경우, 미리 설정된 스마트 안경으로 스크린 식별 명령을 송신하는 단계; 미리 설정된 스마트 안경으로부터 송신한 스크린 식별 성공 정보가 수신된 경우, 이동 단말의 스크린을 파워 온하는 단계; 및 이동 방향, 스크린 배향, 및 자세 식별 정보에서의 손바닥 배향이 전부 제2 미리 설정된 방향인 경우, 이동 단말의 스크린을 끄며, 상기 제1 미리 설정된 방향과 상기 제2 미리 설정된 방향은 서로 다른 단계를 포함한다. 해당 방법에 의하면, 사용자가 특정 버튼을 트리거링하여야 이동 단말의 스크린을 켜는 번거로움을 제거할 수 있을 뿐만 아니라, 이동 단말의 스크린 오퍼레이션의 정확성도 제고할 수 있으며, 오조작을 방지한다.

Description

스크린 제어 방법 및 장치{SCREEN CONTROL METHOD AND DEVICE}
본 출원은 출원번호 201510547144.3, 출원일 2015년 08월 31일인 중국특허출원을 기반으로 제출하며 상기 중국특허출원에 대한 우선권을 주장하고 상기 중국특허출원의 전체 내용을 본 출원에 인용한다.
본 출원은 이동 통신 기술분야에 관한 것으로서, 보다 상세하게는 스크린 제어 방법 및 장치에 관한 것이다.
기술의 끊임없는 발전에 따라, 휴대폰을 대표로 하는 이동 단말은 사용자에게 이미 광범히 사용되고 있으며, 휴대폰은 이미 사용자에게 없어서는 않되는 사용 도구가 되었다.
휴대폰이 대기 상태인 경우, 전력을 절약하기 위하여 보통 스크린을 끄며 사용자가 휴대폰을 다시 조회하거나 또는 사용하는 경우, 휴대폰 위의 특정 버튼을 트리거링하여 다시 스크린을 켠다.
관련 기술에 존재하는 문제를 해결하기 위하여, 본 출원은 스크린 제어 방법 및 장치를 제공한다.
본 출원의 실시예의 제1 측면은 스크린 제어 방법을 제공하며,
상기 이동 단말의 이동 방향을 검출하는 단계;
상기 이동 단말의 스크린의 오리엔테이션(이하 '스크린 배향'이라 약칭)을 검출하는 단계;
미리 설정된 웨어러블 스마트 디바이스로부터 송신한 자세 식별 정보를 수신하는 단계;
상기 이동 방향, 상기 스크린 배향, 및 상기 자세 식별 정보에서의 손바닥 배향이 전부 제1 미리 설정된 방향인 경우, 미리 설정된 스마트 안경으로 스크린 식별 명령을 송신하고; 상기 미리 설정된 스마트 안경으로부터 송신한 스크린 식별 성공 정보가 수신된 경우, 상기 이동 단말의 스크린을 켜는 단계; 및
상기 이동 방향, 상기 스크린 배향, 및 상기 자세 식별 정보에서의 손바닥 배향이 전부 제2 미리 설정된 방향인 경우, 상기 이동 단말의 스크린을 끄는 단계 - 상기 제1 미리 설정된 방향은 상기 제2 미리 설정된 방향과는 상이함 - 를 포함한다.
본 출원에서 제공한 해당 방법은, 사용자가 손에 든 이동 단말의 이동 방향, 스크린 배향 및 자세 식별 정보에서의 손바닥 배향이 전부 사용자 얼굴 방향으로 향한 경우, 또한 이동 단말에서도 사용자가 착용한 스마트 안경으로부터 송신한 스크린 식별 성공 정보가 수신된 경우, 사용자가 이동 단말을 조회하거나 또는 오퍼레이션할 필요가 있다는 것을 확정할 수 있으며, 이때 이동 단말의 스크린을 켜는 것이다. 이는 사용자가 특정 버튼을 트리거링하여야 이동 단말의 스크린을 켜는 번거로움을 제거할 수 있을 뿐만 아니라, 이동 단말의 스크린을 켜는 정확성도 제고할 수 있으며, 오조작을 방지한다.
선택적으로, 상기 제1 미리 설정된 방향은 위측 방향이고, 상기 제2 미리 설정된 방향은 아래측 방향이다.
일반적으로, 사용자는 서서 있거나 또는 앉아 있는 상태기 때문에, 제1 미리 설정된 방향은 위측 방향일 수 있고, 제2 미리 설정된 방향은 아래측 방향일 수 있으며, 위측 방향인 경우, 사용자 얼굴 방향으로 향한 것을 표시한다.
선택적으로, 상기 이동 단말의 이동 방향을 검출하는 상기 단계는,
상기 이동 단말 내의 중력 센서가 검출한 중력 값을 획득하는 단계;
상기 중력 값이 제1 미리 설정된 역치보다 큰 경우, 상기 이동 단말의 이동 방향을 상기 제1 미리 설정된 방향으로 확정하는 단계; 및
상기 중력 값이 제2 미리 설정된 역치보다 작은 경우, 상기 이동 단말의 이동 방향을 상기 제2 미리 설정된 방향으로 확정하는 단계 - 상기 제1 미리 설정된 역치는 상기 제2 미리 설정된 역치보다 큼 - 를 포함한다.
상기 이동 단말 내부에 장착된 중력 센서가 검출한 데이터를 통해, 이동 단말의 이동 방향을 검출하는 것을 정확하고, 신속히 할 수 있다.
선택적으로, 상기 이동 단말의 스크린 배향을 검출하는 상기 단계는,
상기 이동 단말의 중력 센서가 수집한 Z축 데이터를 획득하는 단계;
상기 Z축 데이터가 양수인 경우, 상기 이동 단말의 스크린 배향을 상기 제1 미리 설정된 방향으로 확정하는 단계; 및
상기 Z축 데이터가 음수인 경우, 상기 이동 단말의 스크린 배향을 상기 제2 미리 설정된 방향으로 확정하는 단계를 포함한다.
상기 이동 단말 내부에 장착된 중력 센서가 검출한 데이터를 통해, 이동 단말의 이동 방향을 검출하는 것을 정확하고, 신속히 할 수 있다.
선택적으로, 상기 방법은,
상기 이동 단말의 스크린 상태를 검출하는 단계;
상기 이동 단말의 스크린이 꺼진 상태인 경우, 상기 이동 단말의 스크린을 켜는 단계를 수행하는 단계;
상기 이동 단말의 스크린이 켜진 상태인 경우, 상기 이동 단말의 스크린을 끄는 상기 단계를 수행하는 단계를 더 포함한다.
본 출원의 실시예의 제2 측면은 스마트 안경에 적용되는 스크린 제어 방법을 제공하며, 상기 방법은,
이동 단말으로부터 송신한 스크린 식별 명령이 수신된 경우, 스크린 식별 오퍼레이션을 가동하는 단계;
스마트 안경의 시야 범위 내의 화상을 획득하는 단계;
상기 화상에 상기 이동 단말의 스크린 특징이 포함되어 있는지를 판단하는 단계;
상기 화상에 상기 이동 단말의 스크린 특징이 포함되어 있는 경우, 스크린 식별 성공 정보가 생성되는 단계; 및
상기 스크린 식별 성공 정보를 상기 이동 단말로 송신하는 단계를 포함한다.
스마트 안경이 그의 시야 범위 내의 화상을 식별하는 것을 통해, 사용자가 현재 이동 단말의 스크린을 주시하고 있는지, 즉 사용자가 현재 이동 단말의 스크린을 보고 있는지를 정확히 판단할 수 있으며, 사용자가 현재 이동 단말의 스크린을 주시하고 있는 경우, 스마트 안경은 이미 이동 단말의 스크린을 성공적으로 식별한 것을 설명하며, 스크린 식별 성공 정보를 생성하여 이동 단말로 송신할 수 있다. 이는 이동 단말이 상응하는 오퍼레이션을 수행하도록 하기 위한 것이다.
선택적으로, 상기 화상에 상기 이동 단말의 스크린 특징이 포함되어 있는지를 판단하는 상기 단계는,
상기 화상 내의 특징 정보를 추출하는 단계;
상기 이동 단말의 미리 설정된 스크린 특징 템플릿을 획득하는 단계;
상기 특징 정보와 상기 미리 설정된 스크린 특징 템플릿이 매칭되는지를 판단하는 단계;
상기 특징 정보와 상기 미리 설정된 스크린 특징 템플릿이 매칭되는 경우, 상기 화상에 상기 이동 단말의 스크린 특징이 포함되어 있는 것을 확정하는 단계; 및
상기 특징 정보와 상기 미리 설정된 스크린 특징 템플릿이 매칭되지 않는 경우, 상기 화상에 상기 이동 단말의 스크린 특징이 포함되지 않은 것을 확정하는 단계를 포함한다.
스마트 안경이 촬영한 화상에 대해 식별하는 것을 통해, 특징 매칭 방식을 이용하여 해당 화상에 이동 단말의 스크린 특징이 포함되어 있는지를 정확히 판단할 수 있으며, 즉 사용자가 현재 이동 단말의 스크린을 주시하거나 또는 보고 있는지를 확정할 수 있는 것이다.
본 출원의 실시예의 제3 측면은 이동 단말에 적용되는 스크린 제어 장치를 제공하며, 상기 장치는,
상기 이동 단말의 이동 방향을 검출하도록 구성된 이동 방향 검출 유닛;
상기 이동 단말의 스크린 배향을 검출하도록 구성된 스크린 배향 검출 유닛;
미리 설정된 웨어러블 스마트 디바이스로부터 송신한 자세 식별 정보를 수신하도록 구성된 정보 수신 유닛;
상기 이동 방향, 상기 스크린 배향, 및 상기 자세 식별 정보 에서의 손바닥 배향이 전부 제1 미리 설정된 방향인 경우, 미리 설정된 스마트 안경으로 스크린 식별 명령을 송신하도록 구성된 명령 송신 유닛;
상기 미리 설정된 스마트 안경으로부터 송신한 스크린 식별 성공 정보가 수신된 경우, 상기 이동 단말의 스크린을 켜도록 구성된 스크린 파워 온(power on) 유닛; 및
상기 이동 방향, 상기 스크린 배향, 및 상기 자세 식별 정보에서의 손바닥 배향이 전부 제2 미리 설정된 방향인 경우, 상기 이동 단말의 스크린을 끄도록 구성된 파워 오프 유닛을 포함하며; 상기 제1 미리 설정된 방향은 상기 제2 미리 설정된 방향은 서로 다른 방향이다.
선택적으로, 상기 제1 미리 설정된 방향은 위측 방향이고, 상기 제2 미리 설정된 방향은 아래측 방향이다.
선택적으로, 상기 이동 방향 검출 유닛은,
상기 이동 단말 내의 중력 센서가 검출한 중력 값을 획득하도록 구성된 중력 값 획득 모듈;
상기 중력 값이 제1 미리 설정된 역치보다 큰 경우, 상기 이동 단말의 이동 방향을 상기 제1 미리 설정된 방향으로 확정하도록 구성된 제1 이동 방향 확정 모듈; 및
상기 중력 값이 제2 미리 설정된 역치보다 작은 경우, 상기 이동 단말의 이동 방향을 상기 제2 미리 설정된 방향으로 확정하도록 구성된 제2 이동 방향 확정 모듈을 포함하며; 상기 제1 미리 설정된 역치는 상기 제2 미리 설정된 역치보다 큰 것이다.
선택적으로, 상기 스크린 배향 검출 유닛은,
상기 이동 단말의 중력 센서가 수집한 Z축 데이터를 획득하도록 구성된 데이터 획득 모듈;
상기 Z축 데이터가 양수인 경우, 상기 이동 단말의 스크린 배향을 상기 제1 미리 설정된 방향으로 확정하도록 구성된 제1 스크린 배향 확정 모듈; 및
상기 Z축 데이터가 음수인 경우, 상기 이동 단말의 스크린 배향을 상기 제2 미리 설정된 방향으로 확정하도록 구성된 제2 스크린 배향 확정 모듈을 포함한다.
선택적으로, 상기 장치는,
상기 이동 단말의 스크린 상태를 검출하도록 구성된 스크린 상태 검출 유닛;
상기 이동 단말의 스크린이 꺼진 상태인 경우, 상기 이동 단말의 스크린을 켜도록 구성되는 스크린 파워 온 유닛; 및
상기 이동 단말의 스크린이 켜진 상태인 경우, 상기 이동 단말의 스크린을 끄도록 구성되는 파워 오프 유닛을 더 포함한다.
본 출원의 제4 측면은 스마트 안경에 적용되는 스크린 제어 장치를 제공하며,
이동 단말으로부터 송신한 스크린 식별 명령이 수신된 경우, 스크린 식별 오퍼레이션을 가동하도록 구성된 가동 유닛;
스마트 안경의 시야 범위 내의 화상을 획득하도록 구성된 화상 획득 유닛;
상기 화상에 상기 이동 단말의 스크린 특징이 포함되어 있는지를 판단하도록 구성된 판단 유닛;
상기 화상에 상기 이동 단말의 스크린 특징이 포함되어 있는 경우, 스크린 식별 성공 정보가 생성되도록 구성된 정보 생성 유닛; 및
상기 스크린 식별 성공 정보를 상기 이동 단말로 송신하도록 구성된 정보 송신 유닛을 포함한다.
선택적으로, 상기 판단 유닛은,
상기 화상 내의 특징 정보를 추출하도록 구성된 특징 정보 추출 모듈;
상기 이동 단말의 미리 설정된 스크린 특징 템플릿을 획득하도록 구성된 특징 템플릿 획득 모듈;
상기 특징 정보와 상기 미리 설정된 스크린 특징 템플릿이 매칭되는지를 판단하도록 구성된 매칭 판단 모듈;
상기 특징 정보와 상기 미리 설정된 스크린 특징 템플릿이 매칭되는 경우, 상기 화상에 상기 이동 단말의 스크린 특징이 포함되어 있는 것을 확정하도록 구성된 제1 스크린 특징 확정 모듈; 및
상기 특징 정보와 상기 미리 설정된 스크린 특징 템플릿이 매칭되지 않는 경우, 상기 화상에 상기 이동 단말의 스크린 특징이 포함되지 않은 것을 확정하도록 구성된 제2 스크린 특징 확정 모듈을 포함한다.
본 출원의 실시예의 제5 측면은 이동 단말을 제공하며,
프로세서; 및
상기 프로세서가 실행 가능한 명령을 저장하도록 구성된 메모리를 포함하며,
상기 프로세서는,
상기 이동 단말의 이동 방향을 검출하고;
상기 이동 단말의 스크린 배향을 검출하고;
미리 설정된 웨어러블 스마트 디바이스로부터 송신한 자세 식별 정보를 수신하고;
상기 이동 방향, 상기 스크린 배향, 및 상기 자세 식별 정보에서의 손바닥 배향이 제1 미리 설정된 방향인 경우, 미리 설정된 스마트 안경으로 스크린 식별 명령을 송신하고; 상기 미리 설정된 스마트 안경으로부터 송신한 스크린 식별 성공 정보가 수신된 경우, 상기 이동 단말의 스크린을 켜고;
상기 이동 방향, 상기 스크린 배향, 및 상기 자세 식별 정보에서의 손바닥 배향이 전부 제2 미리 설정된 방향인 경우, 상기 이동 단말의 스크린을 끄도록 구성되며, 상기 제1 미리 설정된 방향은 상기 제2 미리 설정된 방향과는 상이하다.
본 출원의 실시예의 제6 측면은, 스마트 안경을 제공하며,
프로세서; 및
프로세서가 실행 가능한 명령을 저장하도록 구성된 메모리를 포함하며,
상기 프로세서는,
이동 단말로부터 송신한 스크린 식별 명령이 수신된 경우, 스크린 식별 오퍼레이션을 가동하고;
스마트 안경의 시야 범위 내의 화상을 획득하고;
상기 화상에 상기 이동 단말의 스크린 특징이 포함되어 있는지를 판단하고;
상기 화상에 상기 이동 단말의 스크린 특징이 포함되어 있는 경우, 스크린 식별 성공 정보가 생성되고;
상기 스크린 식별 성공 정보를 상기 이동 단말로 송신하도록 구성되었다.
본 출원의 실시예에 따른 기술적 수단은 아래의 유익한 효과를 포함할 수 있다.
본 출원에서 제공한 스크린 제어 방법 및 장치에 의하면, 사용자 손에 든 이동 단말의 이동 방향, 스크린 배향 및 자세 식별 정보에서의 손바닥 배향이 전부 사용자 얼굴 방향으로 향한 경우, 또한 이동 단말에서도 사용자가 착용한 스마트 안경으로부터 송신한 스크린 식별 성공 정보가 수신된 경우, 사용자가 이동 단말을 조회하거나 또는 오퍼레이션해야 할 필요가 있는 것을 확정할 수 있으며 이때 이동 단말의 스크린을 켜면 사용자가 특정 버튼을 트리거링하여야 이동 단말의 스크린을 켜는 번거로움을 제거할 수 있을 뿐만 아니라, 이동 단말의 스크린을 켜는 정확성도 제고할 수 있으며, 오조작을 방지한다.
사용자가 손에 든 이동 단말의 이동 방향, 스크린 배향 및 자세 식별 정보에서의 손바닥 배향이 전부 사용자 얼굴 방향에 멀리한 방향인 경우, 사용자가 이동 단말을 조회하거나 또는 오퍼레이션해야 할 필요가 없는 것을 확정할 수 있으며, 이리 하여 해당 이동 단말의 스크린을 끌 수 있다. 이는 이동 단말의 전력을 절약하고, 항속력을 제고하며, 사용자가 특정 버튼을 트리거링하여야 이동 단말의 스크린을 끄는 번거로움도 제거하였다.
이해해야 할 것은, 상기 일반적인 설명과 후술되는 상세 설명은 예시적이고 해석적인 것일 뿐, 본 출원을 한정할 수 없다.
여기서 개시한 도면은 명세서에 병합되어 명세서의 일부를 구성하며, 본 출원에 부합하는 실시예를 나타내며, 명세서에서 본 출원의 원리를 함께 해석한다.
도 1은 예시적인 일 실시예에 따라 제공한 시나리오 개략도이다.
도 2는 예시적인 다른 실시예에 따라 나타낸 스크린 제어 방법의 흐름도이다.
도 3은 도 2 내의 단계 S210의 흐름도이다.
도 4는 예시적인 다른 실시예에 따라 제공한 시나리오 개략도이다.
도 5는 도 2 내의 단계 S220의 흐름도이다.
도 6은 예시적인 다른 실시예에 따라 나타낸 스크린 제어 방법의 흐름도이다.
도 7은 예시적인 다른 실시예에 따라 나타낸 스크린 제어 방법의 흐름도이다.
도 8은 예시적인 다른 실시예에 따라 제공한 시나리오 개략도이다.
도 9는 도 7 내의 단계 S730의 흐름도이다.
도 10은 예시적인 일 실시예에 따라 나타낸 스크린 제어 장치의 구조도이다.
도 11은 도 10 내의 이동 방향 검출 유닛의 개략도이다.
도 12는 도 10 내의 스크린 배향 검출 유닛의 개략도이다.
도 13은 예시적인 다른 실시예에 따라 나타낸 스크린 제어 장치의 구조도이다.
도 14는 예시적인 다른 실시예에 따라 나타낸 스크린 제어 장치의 구조도이다.
도 15는 도 14 내의 판단 유닛의 개략도이다.
도 16은 예시적인 일 실시예에 따라 나타낸 이동 단말의 구조도이다.
여기서 예시적인 실시예를 상세하게 설명하며, 그 예시는 도면에 나타냈다. 하기 설명에서 도면이 언급될 때, 다른 표시가 없는 한, 서로 다른 도면에서 동일한 숫자는 동일 또는 유사한 요소를 나타낸다. 이하 예시적인 실시예에서 설명된 실시형태는 본 출원와 일치한 모든 실시형태를 대표하지 않는다. 오히려 이들은 후술되는 특허청구범위에서 상세하게 설명된, 본 출원의 일부 측면과 일치한 장치 및 방법의 예이다.
도 1은 예시적인 일 실시예에 따라 제공한 시나리오 개략도이다. 도 1은, 휴대폰(100), 스마트 안경(200) 및 스마트 팔찌(300)를 포함한다. 여기서, 휴대폰(100)은 스마트 안경(200), 스마트 팔찌(300)와 각각 통신을 수행할 수 있으며, 통신 방식은 블루투스, 무선 네트워크 등 방식을 통해 통신을 수행할 수 있다.
사용자가 휴대폰(100)을 들고 오퍼레이션할 때, 휴대폰(100)이 이동하는 경우, 휴대폰(100)에 내장된 중력 센서는 해당 휴대폰(100) 자체의 중력 값을 검출할 수 있으며, 휴대폰(100)은 해당 중력 값에 따라 자신의 이동 방향을 판단할 수 있다. 이 외에, 스마트 팔찌(300) 자체에 가속 센서가 장착되어 있기 때문에, 해당 가속 센서가 검출한 값, 해당 값에 따라 사용자의 자세 식별 정보를 식별할 수 있으며, 해당 자세 식별 정보를 휴대폰(100)으로 송신할 수 있으며, 예를 들어 해당 자세 식별 정보는 사용자의 손바닥 배향을 포함할 수 있다.
휴대폰(100)이 위로 이동하고, 사용자의 손바닥이 위로 향한 경우, 휴대폰(100)은 스마트 안경(200)으로 스크린 식별 명령을 송신한다. 스마트 안경(200)에서 휴대폰(100)으로부터 송신한 스크린 식별 명령이 수신된 경우, 스마트 안경(200)은 해당 스크린 식별 명령에 따라, 스크린 식별 오퍼레이션을 가동하여, 스마트 안경(200)의 현재 시야 내에 휴대폰(100)이 포함되어 있는지를 식별한다. 스마트 안경(200)의 현재 시야 내에 휴대폰(100)이 포함되어 있는 경우, 스마트 안경(200)은 휴대폰(100)으로 식별 성공 정보를 송신하며, 휴대폰(100)은 스마트 안경(200)으로부터 송신한 식별 성공 정보에 따라, 이동 단말의 스크린을 켠다.
설명해야 할 것은, 상기 휴대폰(100)이 위로 이동하고, 휴대폰 스크린이 위로 향하고 또한 사용자의 손바닥도 위로 향하는 경우, 사용자가 휴대폰(100)을 오퍼레이션하면서 사용자 얼굴쪽으로 이동한다는 것을 나타내며, 해당 방식은 사용자가 휴대폰을 조회하고자 하는 의도를 어느 정도 미리 판단될 수 있을 때 사용한다. 사용자가 휴대폰을 사용하는 필요가 있는지를 더 정확히 판단하기 위하여, 스마트 안경(200)의 스크린 식별 오퍼레이션을 결합해야 하며, 이는 사용자가 휴대폰을 조회할 필요가 있는지를 더 정확히 판단할 수 있으며, 따라서 휴대폰(100)의 스크린을 켜고, 이는 사용자가 특정 버튼을 트리거링하여야 이동 단말의 스크린을 켜는 번거로움을 제거할 수 있을 뿐만 아니라, 사용자에게 오퍼레이션상 많은 편리함을 제공할 수 있다.
휴대폰(100)이 아래로 이동하고, 휴대폰 스크린이 아래로 향하고 또한 사용자의 손바닥도 아래로 향한 경우, 사용자가 휴대폰(100)을 조회할 필요가 없는 것을 설명하며, 당연히 휴대폰(100)의 스크린도 켤 필요가 없으며, 만일 이때 휴대폰(100)의 스크린이 켜진 상태인 경우, 바로 휴대폰(100)의 스크린을 끌 수 있다.
설명해야 할 것은, 도 1에서 (100)은 태블릿 PC 등 이동 디바이스일 수도 있으며, (300)은 스마트 워치 등 웨어러블 디바이스(wearable device)일 수도 있다.
상기 수행 절차를 상세히 설명하기 위하여, 본 출원의 실시예는 또한 스크린 제어 방법을 제공하여, 이동 단말에 적용되며, 도 2에서 도시된 바와 같이, 해당 방법은 아래 단계를 포함할 수 있다.
단계 (S210)에서, 이동 단말의 이동 방향을 검출한다.
이동 단말은 사용자가 자주 사용하는 휴대폰, 태블릿 PC 및 전자도서(eBook) 등 휴대용 장치(portable equipment)일 수 있으며, 쉽게 이해하도록 하기 위하여, 실시예에서는 이동 단말을 휴대폰으로 예로 삼아 설명한다.
현재, 사용자가 사용하는 휴대폰에는 일반적으로 휴대폰 이동 방향을 검출하는 센서가 장착되어 있으며, 예를 들어 가속 센서이다. 휴대폰은 내부에 장착된 센서가 검출한 파라미터 정보를 통해, 쉽게 자신의 이동 방향을 식별할 수 있다.
단계 (S220)에서, 이동 단말의 스크린 배향을 검출한다.
휴대폰의 스크린 배향을 위로 향함 및 아래로 향함으로 나눌 수 있고, 이와 마찬가지로 휴대폰 내의 가속 센서를 이용하여 파라미터 정보를 검출하여, 휴대폰의 스크린 배향이 위로 향한 것인지 아니면 아래로 향한 것인지를 판단할 수 있다. 예시적으로, 휴대폰의 스크린 배향은 기타 다른 방향일 수도 있으며, 예를 들어 사용자의 왼쪽 또는 오른쪽으로 향할 수 있으며, 본 출원의 실시예는 이에 한정되지 않고, 다만 위로 향함 및 아래로 향함을 예로 삼아 설명한다.
단계 (S230)에서, 미리 설정된 웨어러블 스마트 디바이스(wearable smart device)로부터 송신한 자세 식별 정보를 수신한다.
미리 설정된 웨어러블 스마트 디바이스는 현재 자주 사용되고 있는 스마트 팔찌, 스마트 워치 등 디바이스일 수 있으며, 스마트 워치를 예로 삼는다. 일반적으로, 스마트 워치 자체는 가속 센서를 갖고 있으며, 가속 센서가 검출한 파라미터 정보를 획득하는 것을 통해, 스마트 워치는 신속하고 정확히 사용자의 손목 밴드 부위가 회전하는지를 식별할 수 있으며, 이에 따라 사용자의 손바닥이 현재 향하는 방향을 판단할 수 있다.
단계 (S240)에서, 이동 방향, 스크린 배향, 및 자세 식별 정보에서의 손바닥 배향이 전부 제1 미리 설정된 방향인 경우, 미리 설정된 스마트 안경으로 스크린 식별 명령을 송신한다.
휴대폰 이동 방향, 스크린 배향, 및 사용자의 손바닥 배향이 전부 제1 미리 설정된 방향인 경우, 예를 들어 제1 미리 설정된 방향이 얼굴 방향인 경우, 사용자가 의도적으로 휴대폰을 오퍼레이션하여 스크린 내의 관련 정보를 조회하는 필요가 있는 것을 설명하며, 이때 사용자가 휴대폰을 조회할 필요가 있는지를 더 정확히 확인하기 위하여, 스마트 안경으로 스크린 식별 명령을 송신해야 하며, 사용자가 끼고 있는 스마트 안경의 시야 내에 해당 휴대폰의 화상 특징이 있는지를 확인하도록 한다.
단계 (S250)에서, 미리 설정된 스마트 안경으로부터 송신한 스크린 식별 성공 정보가 수신된 경우, 이동 단말의 스크린을 켠다.
스크린 식별 성공 정보는, 스마트 안경이 사용자의 눈동자가 현재 휴대폰 내의 메시지를 주시해 보고 있는 것을 정확히 검출해낸 것을 포함해야 하며, 만약 사용자가 눈을 감은 상태거나, 또는 사용자의 눈동자가 휴대폰을 주시해 보고 있지 않은 경우에는, 사용자가 아마도 휴대폰을 조회하거나 또는 오퍼레이션할 필요가 없는 것을 설명하며, 오조작을 방지하기 위하여, 이때도 마찬가지로 휴대폰 스크린을 켤 필요가 없는 것이다.
휴대폰에서, 미리 설정된 스마트 안경으로부터 송신한 스크린 식별 성공 정보가 수신된 경우, 휴대폰의 이동 방향, 스크린 배향 및 사용자의 손바닥 배향을 결합하면, 사용자가 현재 휴대폰을 들고 자신의 얼굴 방향으로 이동하고, 또한 사용자의 눈이 휴대폰을 주시해 보고 있다는 것을 설명하며, 사용자가 해당 휴대폰을 조회하거나 또는 오퍼레이션할 필요가 있다는 것을 설명하며, 이때 해당 휴대폰의 스크린을 켤 수 있으며, 사용자가 특정 버튼을 트리거링하여야 이동 단말의 스크린을 켜는 것을 방지할 수 있으며, 상기 단계는 또한 휴대폰 스크린을 켜는 정확성도 엄청 제고하며, 오조작을 방지한다.
단계 (S260)에서, 이동 방향, 스크린 배향, 및 자세 식별 정보에서의 손바닥 배향이 전부 제2 미리 설정된 방향인 경우, 이동 단말의 스크린을 끈다.
이동 단말의 이동 방향, 스크린 배향, 및 자세 식별 정보에서의 손바닥 배향이 전부 제2 미리 설정된 방향인 경우, 예를 들어 사용자 얼굴 방향에 멀리한 방향으로 향한 경우, 사용자가 이동 단말을 조회하거나 또는 오퍼레이션할 필요가 없는 것을 설명하며, 이때 휴대폰 스크린이 켜진 상태면, 휴대폰 전력을 절약하기 위하여, 또한 사용자가 특정 버튼을 트리거링하여야 이동 단말의 스크린을 끄는 것을 방지하기 위하여, 이때 자동적으로 휴대폰의 스크린을 끌 수 있으며, 휴대폰 스크린을 비파워 온(non-lighten) 상태로 하게끔 한다.
설명해야 할 것은, 제1 미리 설정된 방향과 제2 미리 설정된 방향은 서로 다른 방향이다. 예시적으로, 제1 미리 설정된 방향은 얼굴 방향으로 향한 방향일 수 있고, 제2 미리 설정된 방향은 얼굴 방향에 멀리한 방향일 수 있다. 실시예에서 언급된 사용자는, 실시예에서의 휴대폰을 오퍼레이션하는 사용자를 가리키는 것이며, 물론, 실시예에서 언급된 웨어러블 디바이스도 당연히 해당 사용자에 착용된 것이다.
출원의 실시예에서 제공한 스크린 제어 방법은, 사용자가 손에 든 이동 단말의 이동 방향, 스크린 배향 및 자세 식별 정보에서의 손바닥 배향이 전부 사용자 얼굴 방향을 향한 방향인 경우, 또한 이동 단말에서도 사용자가 착용한 스마트 안경으로부터 송신한 스크린 식별 성공 정보가 수신된 경우, 사용자가 이동 단말을 조회하거나 또는 오퍼레이션할 필요가 있는 것을 확정할 수 있으며, 이때 이동 단말의 스크린을 켜면 사용자가 특정 버튼을 트리거링하여야 이동 단말의 스크린을 켜는 번거로움을 제거할 수 있을 뿐만 아니라, 이동 단말의 스크린을 켜는 정확성도 제고할 수 있으며, 오조작을 방지한다.
사용자 손에 든 이동 단말의 이동 방향, 스크린 배향 및 자세 식별 정보 에서의 손바닥 배향이 전부 사용자 얼굴 방향에 멀리한 방향인 것이 검출된 경우, 사용자가 이미 이동 단말을 조회하거나 또는 오퍼레이션할 필요가 없는 것을 확정할 수 있으며, 이리 하여 해당 이동 단말의 스크린을 끌 수 있다. 이는 이동 단말의 전력을 절약하고, 항속력을 제고하며, 사용자가 특정 버튼을 트리거링하여야 이동 단말의 스크린을 끄는 번거로움을 제거하였다. 이동 단말을 사용하는 경우, 사용자에게 오퍼레이션상 많은 편리함을 제공할 수 있다.
설명해야 할 것은, 제1 미리 설정된 방향은 사용자 얼굴 방향으로 향한 방향이고, 제2 미리 설정된 방향은 사용자 얼굴 방향에 멀리한 방향이다. 사용자는 일반적으로 서서 있거나 또는 앉아 있는 상태기 때문에, 상기 단계 중 제1 미리 설정된 방향은 위측 방향일 수 있고, 제2 미리 설정된 방향은 아래측 방향일 수 있으며, 위측 방향인 경우, 사용자 얼굴 방향으로 향한 것을 표시한다. 이동 단말이 위치하는 수평면을 기준면으로 하여, 이동 단말이 해당 수평면 위의 방향으로 이동하는 경우, 해당 단말이 우측으로 이동하는 것을 확정할 수 있으며, 바꾸어 말하면 해당 이동 단말은 아래측으로 이동한다. 물론 해당 이동 단말이 해당 수평면 방향을 따라 이동하는 경우, 해당 이동 단말은 수평 방향으로 이동하는 것이며, 우측으로 이동하는 것도 아니고, 아래측으로 이동하는 것도 아니다.
이동 단말의 스크린 배향은 해당 이동 단말이 위치하는 수평면을 기준면으로 하여, 이동 단말 스크린이 위치하는 스크린과 해당 수평면 사이의 각도를 판단 근거로, 해당 이동 단말의 스크린 배향을 확정할 수도 있으며, 이 부분은 기존 기술이기 때문에, 여기서 더 이상의 설명은 생략한다.
본 출원의 실시예에서 언급된 웨어러블 스마트 디바이스는, 주요로 팔찌 디바이스를 가리키며, 예를 들어 스마트 팔찌, 스마트 워치 등 디바이스며, 스마트 안경은 포함하지 않는다. 웨어러블 스마트 디바이스는 사영자의 손목 부위에 착용되기 때문에, 웨어러블 스마트 디바이스과 사용자 손목의 상대적 위치는 변치 않아야 하는 것이다. 예를 들어, 도 1에서 도시된 바와 같이, 스마트 팔찌(300)의 상단부가 사용자 손등 부위에 대한 상대적 위치는 변치 않아야 하며, 이러한 경우 스마트 팔찌(300) 내에 설치된 가속 센서를 통해 해당 스마트 팔찌의 회전 정보를 검출할 수 있으며, 예를 들어 회전 방위 등 정보며, 따라서 직접 사용자 손목 부위의 방향(마주하는 방향) 및 사용자 손바닥 배향을 획득할 수 있다.
이동 단말의 이동 방향을 정확히 검출하기 위하여, 도 2 에 나타낸 방법의 세분화로서, 본 출원의 다른 실시예에서, 도 3에서 도시된 바와 같이, 단계 (S210)은 아래 단계를 더 포함할 수 있다.
단계 (S211)에서, 이동 단말 내의 중력 센서가 검출한 중력 값을 획득한다.
현재 사용자가 사용하는 이동 단말 디바이스는, 예를 들어 휴대폰, 태블릿 PC 등이며, 내부에는 전부 중력 센서가 설치되어 있으며, 이동 단말은 해당 중력 센서를 통해, 자신의 중력 값을 획득할 수 있다.
도 4와 결합하여, 현재 중력 센서는 이동 단말의 삼축 중력 값을 검출할 수 있으며, 즉 (x, y, z)이다.
단계 (S212)에서, 중력 값이 제1 미리 설정된 역치보다 큰 경우, 이동 단말의 이동 방향을 제1 미리 설정된 방향으로 확정한다.
단계 (S213)에서, 중력 값이 제2 미리 설정된 역치보다 작은 경우, 이동 단말의 이동 방향을 제2 미리 설정된 방향으로 확정한다.
현재 이동 단말 내에 설치된 중력 센서를 통해 이동 단말의 이동 방향을 검출하는 방법은, 여러 가지일 수 있으며, 여기서 더 이상 설명하지 않을 것이다. 예를 들어, 중력 센서가 검출한 Z축 중력 값에 따라, 해당 이동 단말의 이동 방향을 판단한다. 해당 Z축 중력 값이 제1 미리 설정된 역치보다 큰 경우, 이동 단말이 제1 미리 설정된 방향으로 이동하는 것을 확정할 수 있고, 해당 Z축 중력 값이 제2 미리 설정된 역치보다 작은 경우, 이동 단말이 제2 미리 설정된 방향으로 이동하는 것을 확정할 수 있다.
예시적으로, 해당 Z축 중력 값이 어떤 양수보다 큰 경우, 이동 단말이 위로 이동한다는 것을 설명하고, 해당 Z축 중력 값이 어떤 음수보다 작은 경우, 이동 단말이 아래로 이동한다는 것을 설명한다.
물론, 설명해야 할 것은, 제1 미리 설정된 역치는 제2 미리 설정된 역치보다 큰 것이다.
그러므로, 이동 단말 내에 설치된 중력 센서가 검출한 중력 값에 따라, 신속하고 정확히 해당 이동 단말의 이동 방향을 판단할 수 있다.
이동 단말의 스크린 배향을 정확히 검출하기 위하여, 도 2 내의 방법의 세분화로서, 본 출원의 다른 실시예에서, 도 5에서 도시된 바와 같이, 단계 (S220)은 아래 단계를 더 포함할 수 있다.
단계 (S221)에서, 이동 단말의 중력 센서가 수집한 Z축 데이터를 획득한다.
단계 (S222)에서, Z축 데이터가 양수인 경우, 이동 단말의 스크린 배향을 제1 미리 설정된 방향으로 확정한다.
단계 (S223)에서, Z축 데이터가 음수인 경우, 이동 단말의 스크린 배향을 제2 미리 설정된 방향으로 확정한다.
상기 단계 및 도 4에 결합하여 설명할 수 있으며, 여기서 더 이상 설명하지 않을 것이며, 이동 단말 내에 설치된 중력 센서가 검출한 Z축 중력 값에 따라, 신속하고 정확히 해당 이동 단말의 스크린 배향을 판단할 수 있다. Z축 중력 값이 양수인 경우, 해당 이동 단말의 스크린은 아래로 향한 것을 설명하고; Z축 중력 값이 음수인 경우, 해당 이동 단말의 스크린은 위로 향한 것을 설명한다.
이동 단말의 스크린을 정확히 켜고 또는 끄기 위하여, 도 2 내의 방법의 세분화로서, 본 출원의 다른 실시예에서, 도 6에서 도시된 바와 같이, 해당 방법은 아래 단계를 더 포함할 수 있다.
단계 (S270)에서, 이동 단말의 스크린 상태를 검출한다.
단계 (S280)에서, 이동 단말의 스크린이 꺼진 상태인 경우, 이동 단말의 스크린을 켠다.
단계 (S290)에서, 이동 단말의 스크린이 켜진 상태인 경우, 이동 단말의 스크린을 끈다.
도 2를 기반으로, 현재 사용자가 이동 단말을 들고 사용자 얼굴 방향으로 이동하는 경우, 또한 이동 단말에서 스마트 안경으로부터 송신한 스크린 식별 성공 정보가 수신된 경우, 해당 사용자가 해당 이동 단말을 조회하거나 또는 오퍼레이션하는 의도가 있다는 것을 설명하며, 해당 이동 단말의 스크린 상태를 검출할 필요가 더 있다. 이때, 해당 이동 단말의 스크린이 꺼진 상태인 경우, 이동 단말의 스크린을 켜야 되고, 해당 이동 단말의 스크린이 켜진 상태인 경우에는, 더이상 오퍼레이션이 필요 없다.
이와 유사하게, 이때 사용자가 이동 단말을 들고 사용자 얼굴 방향에 멀리한 방향으로 이동하는 경우, 사용자가 해당 이동 단말을 조회하거나 또는 오퍼레이션할 필요가 없다는 것을 설명하며, 따라서 이때 해당 이동 단말의 스크린이 꺼진 상태인지를 검출할 필요가 더 있으며, 꺼진 상태가 아닌 경우, 해당 이동 단말의 스크린을 끄고, 아니면 오퍼레이션할 필요가 없다.
도 2 내의 스마트 안경(200)이 사용자가 이동 단말(100)을 조회하였는지를 어떻게 검출하는 것에 대해 상세히 설명하기 위하여, 본 출원의 다른 실시예에서, 도 7에서 도시된 바와 같이, 스마트 안경에 적용되는 스크린 제어 방법을 제공하며, 해당 방법은 아래 단계를 포함할 수 있다.
단계 (S710)에서, 이동 단말로부터 송신한 스크린 식별 명령이 수신된 경우, 스크린 식별 오퍼레이션을 가동한다.
스마트 안경과 이동 단말은 미리 연결되어야 하며, 양자 사이에서는 블루투스 등 방식을 통해 통신을 수행할 수 있다. 스마트 안경에서 이동 단말로부터 송신한 스크린 식별 명령이 수신된 경우, 스마트 안경은 스크린 식별 오퍼레이션을 가동하며, 예를 들어 카메라 오픈 등 오퍼레이션이다.
단계 (S720)에서, 스마트 안경의 시야 범위 내의 화상을 획득한다.
단계 (S730)에서, 화상에 이동 단말의 스크린 특징이 포함되어 있는지를 판단한다.
화상에 이동 단말의 스크린 특징이 포함되어 있는 경우, 단계 S740을 수행한다.
단계 (S740)에서, 스크린 식별 성공 정보가 생성된다.
단계 (S750)에서, 스크린 식별 성공 정보를 이동 단말로 송신한다.
스마트 안경은 자신에 내장된 카메라를 오픈 후, 어느 하나 방향의 시야 범위 내의 경물에 대해 촬영해야 하며, 이때, 두 가지 방식을 통해 식별 판단을 수행할 수 있다.
첫번째 방식은, 기존 기술 중 비교적 성숙된 안구 추적 기술(eye tracking technology)을 이용하여, 사용자 눈이 주시하는 방향쪽의 물건에 대해 촬영한 다음, 단계 S730을 수행한다. 이때, 스마트 안경이 촬영한 화상에 포함된 시야 범위가 비교적 작을 수 있으며, 이로 하여 사용자가 현재 이동 단말의 스크린을 주시하고 있는지를 매우 쉽게 식별할 수 있다.
두번째 방식은, 스마트 안경은 자신에 내장된 카메라를 오픈 하여, 시야 범위 내에 포함된 모든 물건의 화상을 촬영한다. 이러한 상황에서, 스마트 안경이 촬영한 화상에 포함된 물건은 비교적 많을 수 있지만, 스마트 안경은 사용자의 머리 이동에 따라 이동하기 때문에, 즉 스마트 안경과 사용자 머리의 상대적 위치는 변치 않기 때문에, 촬영된 화상 중심 위치를 중심으로, 미리 설정된 면적의 화상을 적출하여 타겟 영역 화상으로 구성한 다음, 해당 타겟 화상에 이동 단말의 스크린 특징이 포함되어 있는지를 검출하며, 즉 단계 (S730)을 수행하는 것이다. 구체적으로, 도 8을 참고할 수 있으며, 도 8에서, (100)은 이동 단말이고, (500)은 상기 스마트 안경이 촬영한 화상에서 선택한 타겟 영역 내의 화상이며, (400)은 스마트 안경이 촬영한 화상이다.
이 외에, 사용자가 눈을 감은 상태인지를 판단해야 하며, 사용자가 현재 눈 감은 상태인 경우, 사용자가 이동 단말을 들고 있는 동작은 습관적 동작일 수 있는 것을 설명하며, 해당 이동 단말을 조회하거나 또는 오퍼레이션할 필요가 없으며, 상기 단계를 수행하는 것을 종료할 수 있다. 스마트 안경이 촬영한 화상에서, 이동 단말의 특징 정보가 스크린 특징이 아니라, 이동 단말의 측면 또는 뒷면인 것이 식별된 경우, 사용자가 이동 단말을 들고 있는 동작은 습관적 동작일 수 있는 것을 설명할 수도 있으며, 해당 이동 단말을 조회하거나 또는 오퍼레이션할 필요가 없으며, 상기 단계를 수행하는 것을 종료할 수도 있다.
상기 단계에서 스마트 안경이 그의 시야 범위 내의 화상을 식별하는 것을 통해, 사용자가 현재 이동 단말의 스크린을 주시하고 있는지, 즉 사용자가 현재 이동 단말의 스크린을 보고 있는지를 정확히 판단할 수 있으며, 사용자가 현재 이동 단말의 스크린을 주시하고 있는 경우, 스마트 안경은 이미 이동 단말의 스크린을 성공적으로 식별한 것을 설명하며, 스크린 식별 성공 정보를 생성하여 이동 단말로 송신할 수 있다. 이는 이동 단말이 상응하는 오퍼레이션을 수행하도록 하기 위한 것이다.
스마트 안경이 촬영한 화상에 이동 단말의 스크린 특징이 포함되어 있는지를 어떻게 판단하는 것에 대해 상세히 설명하기 위하여, 도 7 내의 방법의 세분화로서, 본 출원의 다른 실시예에서, 도 9에서 도시된 바와 같이, 단계 (S730)은 아래 단계를 더 포함할 수 있다.
단계 (S731)에서, 화상 내의 특징 정보를 추출한다.
스마트 안경이 촬영한 화상 내의 특징 정보를 추출하는 것은, 주로 해당 화상 내의 이동 단말을 포함하는 스크린 특징 정보를 추출하는 것이다. 구체적으로 종래의 화상 전처리(image preprocessing), 관심되는 영역 추출을 통해 수행할 수 있고, 그 다음 화상 내의 특징을 추출하며, 여기서 더 이상의 설명은 생략한다.
단계 (S732)에서, 이동 단말의 미리 설정된 스크린 특징 템플릿을 획득한다.
이동 단말의 스크린 특징 템플릿은 미리 설정된 것이야 하며, 스마트 안경의 로컬 데이터 베이스에 저장할 수 있다. 여러 타입의 이동 단말 스크린 특징 템플릿을 저장할 수 있으며, 이 스크린 특징 템플릿들은 다양한 자세의 이동 단말 스크린 특징을 포함할 수 있다.
단계 (S733)에서, 특징 정보와 미리 설정된 특징 템플릿이 매칭되는지를 판단한다.
매칭도를 설치할 수 있으며, 특징 정보와 스크린 특징 템플릿의 매칭도가 하나의 미리 설정된 역치보다 크거나 또는 같은 경우, 특징 정보와 해당 스크린 특징 템플릿이 매칭되는 것을 확정하며; 아닌 경우, 매칭되지 않는다.
특징 정보와 스크린 특징 템플릿이 매칭되는 경우, 단계 S734를 수행한다.
단계 (S734)에서, 화상에 이동 단말의 스크린 특징이 포함되어 있는 것을 확정한다.
특징 정보와 스크린 특징 템플릿이 매칭되는 경우, 해당 화상에 이동 단말의 스크린 특징이 포함되어 있는 것을 설명하며, 즉 사용자가 이동 단말의 스크린을 주시하고 있다는 것을 설명한다.
특징 정보와 스크린 특징 템플릿이 매칭되지 않는 경우, 단계 (S735)를 수행한다.
단계 (S735)에서, 화상에 이동 단말의 스크린 특징이 포함되지 않는 것을 확정한다.
특징 정보와 스크린 특징 템플릿이 매칭되지 않는 경우, 해당 화상에 이동 단말의 스크린 특징이 포함되지 않거나, 또는 포함하는 스크린 특징이 매우 적은 것을 설명하며, 즉 사용자가 이동 단말의 스크린을 주시하지 않은 것을 설명한다.
스마트 안경이 촬영한 화상에 대해 식별하는 것을 통해, 특징 매칭 방식을 사용하여 해당 화상에 이동 단말의 스크린 특징이 포함되어 있는지를 정확히 판단할 수 있으며, 즉 사용자가 현재 이동 단말의 스크린을 주시하거나 또는 보고 있는지를 확정할 수 있는 것이다.
상기 방법 실시예에 대한 서술을 통해, 해당 분야의 기술자는 본 출원은 소프트웨어 및 필수인 공통(common) 하드웨어 방식으로 실현하는 것을 명확히 알 수 있으며, 물론, 하드웨어를 통해 실현할 수 도 있지만, 다수의 상황에서는 전자가 더 훌륭한 실시 방식이다. 이런 식의 이해를 기반으로, 본 출원의 기술적 수단은 본격적으로, 또한 기존 기술에 대한 공헌에 대해 말하자면 소프트웨어 제품 형식으로 나타날 수 있으며, 해당 컴퓨터 소프트웨어 제품은 하나의 저장 매체에 저장될 수 있으며, 컴퓨터 디바이스(개인용 컴퓨터, 서버, 또는 네트워크 디바이스 등일 수 있음)가 본 출원의 각 실시예에서 서술한 방법의 전부 또는 일부 단계를 수행하도록 구성된 명령을 포함한다. 전술한 저장 매체는, 롬(ROM), 램(RAM), 자기 디스크 또는 CD 등 프로그램 코드를 저장할 수 있는 매체를 포함한다.
이 외에, 상기 실시예 각각에 대한 구체적인 적용으로서, 본 출원의 실시예는 스크린 제어 장치를 더 제공하였으며, 해당 장치는 이동 단말에 위치하며, 도 10에서 도시된 바와 같이, 해당 장치는, 이동 방향 검출 유닛(10), 스크린 배향 검출 유닛(20), 정보 수신 유닛(30), 명령 송신 유닛(40), 스크린 파워 온 유닛(50) 및 파워 오프 유닛(60)을 포함하되, 여기서
이동 방향 검출 유닛(10)은, 상기 이동 단말의 이동 방향을 검출하도록 구성되고;
스크린 배향 검출 유닛(20)은 상기 이동 단말의 스크린 배향을 검출하도록 구성되고;
정보 수신 유닛(30)은, 미리 설정된 웨어러블 스마트 디바이스로부터 송신한 자세 식별 정보를 수신하도록 구성되고;
명령 송신 유닛(40)은 상기 이동 방향, 상기 스크린 배향, 및 상기 자세 식별 정보에서의 손바닥 배향이 전부 제1 미리 설정된 방향인 경우, 미리 설정된 스마트 안경으로 스크린 식별 명령을 송신하도록 구성되고;
스크린 파워 온 유닛(50)은 상기 미리 설정된 스마트 안경으로부터 송신한 스크린 식별 성공 정보가 수신된 경우, 상기 이동 단말의 스크린을 켜도록 구성되고;
파워 오프 유닛(60)은 상기 이동 방향, 상기 스크린 배향, 및 상기 자세 식별 정보에서의 손바닥 배향이 전부 제2 미리 설정된 방향인 경우, 상기 이동 단말의 스크린을 끄도록 구성되며; 상기 제1 미리 설정된 방향과 상기 제2 미리 설정된 방향은 서로 다른 것이다.
이 외에, 상기 제1 미리 설정된 방향은 위측 방향이고, 상기 제2 미리 설정된 방향은 아래측 방향이다.
본 출원의 다른 실시예에서, 도 10을 기반으로, 도 11에서 도시된 바와 같이, 이동 방향 검출 유닛(10)은, 중력 값 획득 모듈(11), 제1 이동 방향 확정 모듈(12) 및 제2 이동 방향 확정 모듈(13)을 포함하되, 여기서,
중력 값 획득 모듈(11)은, 상기 이동 단말 내의 중력 센서가 검출한 중력 값을 획득하도록 구성되고;
제1 이동 방향 확정 모듈(12)은, 상기 중력 값이 제1 미리 설정된 역치보다 큰 경우, 상기 이동 단말의 이동 방향을 상기 제1 미리 설정된 방향으로 확정하도록 구성되고;
제2 이동 방향 확정 모듈(13)은, 상기 중력 값이 제2 미리 설정된 역치보다 작은 경우, 상기 이동 단말의 이동 방향을 상기 제2 미리 설정된 방향으로 확정하도록 구성되며, 상기 제1 미리 설정된 역치는 상기 제2 미리 설정된 역치보다 큰 것이다.
본 출원의 다른 실시예에서, 도 10을 기반으로, 도 12에서 도시된 바와 같이, 스크린 배향 검출 유닛(20)은, 데이터 획득 모듈(21), 제1 스크린 배향 확정 모듈(22), 및 제2 스크린 배향 확정 모듈(23)을 포함하되, 여기서,
데이터 획득 모듈(21)은, 상기 이동 단말의 중력 센서가 수집한 Z축 데이터를 획득하도록 구성되고;
제1 스크린 배향 확정 모듈(22)은, 상기 Z축 데이터가 양수인 경우, 상기 이동 단말의 스크린 배향을 상기 제1 미리 설정된 방향으로 확정하도록 구성되고;
제2 스크린 배향 확정 모듈(23)은, 상기 Z축 데이터가 음수인 경우, 상기 이동 단말의 스크린 배향을 상기 제2 미리 설정된 방향으로 확정하도록 구성되었다.
본 출원의 다른 실시예에서, 도 10을 기반으로, 도 13에서 도시된 바와 같이, 해당 장치는, 스크린 상태 검출 유닛(70)을 더 포함하되, 여기서,
상기 스크린 상태 검출 유닛(70)은, 상기 이동 단말의 스크린 상태를 검출하도록 구성되고;
상기 스크린 파워 온 유닛(50)은, 상기 이동 단말의 스크린이 꺼진 상태인 경우, 상기 이동 단말의 스크린을 켜도록 구성되고;
상기 파워 오프 유닛(60)은, 상기 이동 단말의 스크린이 켜진 상태인 경우, 상기 이동 단말의 스크린을 끄도록 구성되었다.
이 외에, 본 출원의 실시예는 스크린 제어 장치를 더 제공하여, 해당 장치는 스마트 안경에 적용되며, 도 14에서 도시된 바와 같이, 해당 장치는, 가동 유닛(910), 화상 획득 유닛(920), 판단 유닛(930), 정보 생성 유닛(940) 및 정보 송신 유닛(950)을 포함하되, 여기서,
가동 유닛(910)은, 이동 단말로부터 송신한 스크린 식별 명령이 수신된 경우, 스크린 식별 오퍼레이션을 가동하도록 구성되고;
화상 획득 유닛(920)은, 스마트 안경의 시야 범위 내의 화상을 획득하도록 구성되고;
판단 유닛(930)은, 상기 화상에 상기 이동 단말의 스크린 특징이 포함되어 있는지를 판단하도록 구성되고;
정보 생성 유닛(940)은, 상기 화상에 상기 이동 단말의 스크린 특징이 포함되어 있는 경우, 스크린 식별 성공 정보가 생성되도록 구성되고;
정보 송신 유닛(950)은, 상기 스크린 식별 성공 정보를 상기 이동 단말로 송신하도록 구성되었다.
본 출원의 다른 실시예에서, 도 14를 기반으로, 도 15에서 도시된 바와 같이, 판단 유닛(930)은, 특징 정보 추출 모듈(931), 특징 템플릿 획득 모듈(932), 매칭 판단 모듈(933), 제1 스크린 특징 확정 모듈(934) 및 제2 스크린 특징 확정 모듈(935)을 포함하되, 여기서,
특징 정보 추출 모듈(931)은, 상기 화상 내의 특징 정보를 추출하도록 구성되고;
특징 템플릿 획득 모듈(932)은, 상기 이동 단말의 미리 설정된 스크린 특징 템플릿을 획득하도록 구성되고;
매칭 판단 모듈(933)은, 상기 특징 정보와 상기 미리 설정된 스크린 특징 템플릿이 매칭되는지를 판단하도록 구성되고;
제1 스크린 특징 확정 모듈(934)은, 상기 특징 정보와 상기 미리 설정된 스크린 특징 템플릿이 매칭되는 경우, 상기 화상에 상기 이동 단말의 스크린 특징이 포함되어 있는 것을 확정하도록 구성되고;
제2 스크린 특징 확정 모듈(935)은, 상기 특징 정보와 상기 미리 설정된 스크린 특징 템플릿이 매칭되지 않는 경우, 상기 화상에 상기 이동 단말의 스크린 특징이 포함되지 않은 것을 확정하도록 구성되었다.
상기 실시예에서의 장치에 관련하여, 각 모듈이 오퍼레이션을 수행하는 구체적 방식은 이미 해당 방법에 연관되는 실시예에서 상세히 설명하였으며, 여기서 더 이상의 상세한 설명은 생략할 것이다.
도 16은 예시적인 일 실시예에 따라 나타낸 스크린 제어에 사용되는 단말(1600)의 구조도이다. 예를 들어, 단말(1600)은 이동전화, 컴퓨터, 디지털방송단말기, 메시지송수신장치, 게임컨트롤러, 패널장치, 의료장치, 헬스장치, 개인용 정보단말기(PDA) 등일 수 있다.
도 16을 참고하면, 단말(1600)은 프로세싱 어셈블리(1602), 메모리(1604), 전원 어셈블리(1606), 멀티미디어 어셈블리(1608), 오디오 어셈블리(1610), 입/출력(I/O) 인터페이스(1612), 센서 어셈블리(1614) 및 통신 어셈블리(1616) 중 적어도 하나의 어셈블리를 포함할 수 있다.
프로세싱 어셈블리(1602)는 일반적으로, 예를 들어 표시, 전화 호출, 데이터 통신, 카메라 오퍼레이션 및 기록 오퍼레이션과 관련되는 단말(1600)의 전체 오퍼레이션을 제어한다. 프로세싱 어셈블리(1602)는 적어도 하나의 프로세서(1620)를 포함하여 명령을 수행하여 상기 방법의 전체 또는 일부 단계를 완성할 수 있다. 또한, 프로세싱 어셈블리(1602)는 적어도 하나의 모듈을 포함하여 프로세싱 어셈블리(1602)와 기타 어셈블리 사이의 인터랙티브에 편리하도록 할 수 있다. 예를 들어, 프로세싱 어셈블리(1602)는 멀티미디어 모듈을 포함하여, 멀티미디어 어셈블리(1608)와 프로세싱 어셈블리(1602) 사이의 인터랙티브를 편리하게 할 수 있다.
메모리(1604)는 각종 유형의 데이터를 저장하여 단말(1600)에서의 오퍼레이션을 지지하도록 구성된다. 이들 데이터의 예시로는, 단말(1600)에서 오퍼레이션되는 모든 응용 프로그램 또는 방법에 이용되는 명령, 연락처 데이터, 전화번호부 데이터, 메시지, 이미지, 동영상 등을 포함한다. 메모리(1604)는 모든 유형의 휘발성 또는 비휘발성 저장장치 또는 이들의 조합으로 구현될 수 있다. 예를 들어, 정적램(SRAM), 이이프롬(EEPROM), 이프롬(EPROM), 프롬(PROM), 롬(ROM), 자기메모리, 플래시메모리, 디스크 또는 CD 또는 이들의 조합일 수 있다.
전원 어셈블리(1606)는 단말(1600)의 각종 어셈블리에 전력을 제공한다. 전원 어셈블리(1606)는 전원관리시스템, 적어도 하나의 전원, 및 단말(1600)의 전력 생성, 관리 및 할당과 관련된 그밖의 다른 어셈블리를 포함할 수 있다.
멀티미디어 어셈블리(1608)는, 단말(1600)와 사용자 사이의, 하나의 출력 인터페이스를 제공하는 스크린을 포함한다. 일부 실시예에서, 스크린은 액정디스플레이(LCD) 및 터치패널(TP)을 포함할 수 있다. 스크린이 터치패널을 포함하는 경우, 스크린은 터치스크린으로 구현되어, 사용자의 입력 신호를 수신할 수 있다. 터치패널은 적어도 하나의 터치센서를 포함하여 터치, 슬라이드 및 터치패널 상의 제스처를 감지한다. 터치센서는 터치 또는 슬라이드 동작의 경계를 감지할 수 있을 뿐만 아니라, 터치 또는 슬라이드 오퍼레이션과 관련된 지속 시간 및 압력을 감지할 수 있다. 일부 실시예에서, 멀티미디어 어셈블리(1608)는 하나의 전방 카메라 및/또는 후방 카메라를 포함한다. 장치(1600)가 오퍼레이션 모드, 예를 들어 촬영 모드 또는 동영상 모드인 경우, 전방 카메라 및/또는 후방 카메라는 외부의 멀티미디어 데이터를 수신할 수 있다. 각각의 전방 카메라와 후방 카메라는 하나의 고정된 광학렌즈시스템이거나 또는 초점거리와 광학적 초점 변경 능력을 구비할 수 있다.
오디오 어셈블리(1610)는 오디오 신호를 출력 및/또는 입력하도록 구성된다. 예를 들어, 오디오 어셈블리(1610)는 하나의 마이크(MIC)를 포함하며, 단말(1600)이 오퍼레이션 모드, 예를 들어 호출 모드, 기록 모드 및 음성 인식 모드인 경우, 마이크는 외부의 오디오 신호를 수신하도록 구성된다. 수신된 오디오 신호는 나아가 메모리(1604)에 저장되거나 또는 통신 어셈블리(1616)에 의해 송신될 수 있다. 일부 실시예에서, 오디오 어셈블리(1610)는 오디오 신호를 출력하기 위한 하나의 스피커를 더 포함한다.
I/O 인터페이스(1612)는 프로세싱 어셈블리(1602)와 주변 인터페이스 모듈 사이에 인터페이스를 제공하며, 상기 주변 인터페이스 모듈은 키패드, 클릭휠, 버튼 등일 수 있다. 이들 버튼은 홈버튼, 음량버튼, 시작버튼 및 잠금버튼을 포함할 수 있으나 이에 한정되지 않는다.
센서 어셈블리(1614)는 적어도 하나의 센서를 포함하며, 단말(1600)에 각 측면의 상태 평가를 제공한다. 예를 들어, 센서 어셈블리(1614)는 단말(1600)의 열기/닫기 상태, 어셈블리의 상대적 포지셔닝 예를 들어 어셈블리가 단말(1600)의 디스플레이 및 키보드임을 검출할 수 있다. 센서 어셈블리(1614)는 또한 단말(1600) 또는 단말(1600)의 하나의 어셈블리의 위치 변화, 사용자와 단말(1600)의 접촉 여부, 단말(1600)의 방위 또는 가속/감속, 및 단말(1600)의 온도 변화를 검출할 수도 있다. 센서 어셈블리(1614)는, 그 어떤 물리적 접촉이 없는 경우 근처 물체의 존재를 검출하도록 구성된 접근 센서를 포함할 수 있다. 센서 어셈블리(1614)는 또한 예를 들어 CMOS 또는 CCD 화상센서와 같이 화상 형성 어플리케이션에서 이용되는 광학 센서를 포함할 수도 있다. 일부 실시예에서, 상기 센서 어셈블리(1614)는 가속 센서, 자이로스코프 센서, 자기 센서, 압력 센서 또는 온도 센서를 포함할 수도 있다.
통신 어셈블리(1616)는 단말(1600)과 기타 장치 사이의 유선 또는 무선 방식의 통신에 편리하도록 구성된다. 단말(1600)은 통신표준 기반의 무선네트워크, 예를 들어 Wi-Fi, 2G 또는 3G, 또는 이들의 조합에 액세스할 수 있다. 예시적인 일 실시예에서, 통신 어셈블리(1616)는 방송 채널에 의해 외부 방송관리시스템으로부터의 방송 신호 또는 방송 관련 정보를 수신한다. 예시적인 일 실시예에서, 통신 어셈블리(1616)는 근거리 통신을 촉진하도록 근거리무선통신(NFC) 모듈을 더 포함한다. 예를 들어, NFC 모듈은 전파식별(RFID) 기술, 국제 적외선 데이터통신협회 (IrDA) 기술, 초광대역(UWB) 기술, 블루투스(BT) 기술 및 기타 기술에 기반하여 구현할 수 있다.
예시적인 실시예에서, 단말(1600)은 적어도 하나의 응용주문형 집적회로(ASIC), 디지털신호프로세서(DSP), 디지털신호처리장치(DSPD), 프로그래머블논리소자(PLD), 필드프로그래머블게이트어레이(FPGA), 컨트롤러, 마이크로컨트롤러, 마이크로프로세서 또는 기타 전자소자에 의해 구현되어, 상기 방법을 수행할 수 있다.
예시적인 실시예에서는 명령을 포함한 비일시적 컴퓨터 판독가능 저장매체(Non temporary computer readable storage medium), 예를 들어 명령을 포함한 메모리(1604)를 더 제공한다. 상기 명령은 단말(1600)의 프로세서(1620)에 의해 수행되어 상기 스크린 제어 방법을 완성한다. 예를 들어, 비일시적 컴퓨터 판독가능 저장매체는 ROM, 램(RAM), CD-ROM, 테이프, 플로피 디스크 및 광학 데이터 저장장치 등일 수 있다.
여기서, 단말(1600)은 이동 단말일 수도 있고, 스마트 안경일 수도 있다.
비일시적 컴퓨터 판독가능 저장매체는, 이동 단말의 프로세서가 상기 저장매체 내의 명령을 실행하는 경우, 이동 단말이 스크린 제어 방법을 수행할수 있도록 하되, 상기 방법은,
상기 이동 단말의 이동 방향을 검출하는 단계;
상기 이동 단말의 스크린 배향을 검출하는 단계;
미리 설정된 웨어러블 스마트 디바이스로부터 송신한 자세 식별 정보를 수신하는 단계;
상기 이동 방향, 상기 스크린 배향, 및 상기 자세 식별 정보에서의 손바닥 배향이 전부 제1 미리 설정된 방향인 경우, 미리 설정된 스마트 안경으로 스크린 식별 명령을 송신하고; 상기 미리 설정된 스마트 안경으로부터 송신한 스크린 식별 성공 정보가 수신된 경우, 상기 이동 단말의 스크린을 켜는 단계; 및
상기 이동 방향, 상기 스크린 배향, 및 상기 자세 식별 정보에서의 손바닥 배향이 전부 제2 미리 설정된 방향인 경우, 상기 이동 단말의 스크린을 끄며, 상기 제1 미리 설정된 방향과 상기 제2 미리 설정된 방향은 서로 다른 단계를 포함한다.
이 외에, 비일시적 컴퓨터 판독가능 저장매체는, 스마트 안경의 프로세서가 상기 저장매체 내의 명령을 실행하는 경우, 스마트 안경이 스크린 제어 방법을 수행할수 있도록 하되, 상기 방법은,
이동 단말로부터 송신한 스크린 식별 명령이 수신된 경우, 스크린 식별 오퍼레이션을 가동하는 단계;
스마트 안경의 시야 범위 내의 화상을 획득하는 단계;
상기 화상에 상기 이동 단말의 스크린 특징이 포함되어 있는지를 판단하는 단계;
상기 화상에 상기 이동 단말의 스크린 특징이 포함되어 있는 경우, 스크린 식별 성공 정보가 생성되는 단계; 및
상기 스크린 식별 성공 정보를 상기 이동 단말로 송신하는 단계를 포함한다.
이해할 수 있는 것은, 본 출원은 수많은 통용 또는 전용적인 컴퓨터 시스템 환경 또는 구성(configuration)에 적용될 수 있다. 예를 들어, 개인용 컴퓨터, 서버 컴퓨터, 핸드헬드 디바이스(handhold device) 또는 휴대용 장치, 패널 타이프 디바이스, 멀티 프로세싱 시스템, 마이크로프로세스를 기반으로 한 시스템, 셋 톱 박스(set top box), 프로그램 가능한 소비 전자 기기(programmable consumer electronic device), 네트워크 PC, 소형 컴퓨터, 대형 컴퓨터, 상기 임의의 시스템 또는 디바이스를 포함하는 분산 컴퓨터 환경(distributed computing environment) 등이다.
본 출원은 컴퓨터가 수행하는 컴퓨터 수행 가능 명령의 일반적 전후 문맥에서 설명할 수 있으며, 예를 들어 프로그램 모듈이다. 일반적으로, 프로그램 모듈은 특정 미션을 수행하거나 또는 특정 추상 데이터(abstract data) 타입의 루틴, 프로그램, 객체, 어셈블리, 데이터 구조 등을 실현하는 것을 포함한다. 그리고, 분산 컴퓨터 환경에서도 본 발명을 실시할 수도 있으며, 이러한 분산 컴퓨터 환경에서, 통신 네트워크를 통해 연결된 원격 프로세싱 디바이스가 임무를 수행한다. 분산 컴퓨터 환경에서, 프로그램 모듈은 저장 디바이스를 포함하는 로컬 및 원격 컴퓨터 저장 매체에 위치할 수 있다.
설명해야 할 것은, 본문에서, 예를 들어 “제1” 및 “제2” 등 관계 용어는 하나의 실체 또는 오퍼레이션을 다른 실체 또는 오퍼레이션과 분리하도록 구성될 뿐이며, 이러한 실체 또는 오퍼레이션 사이에 어떠한 실제적인 관계 또는 순서가 존재하는 것을 꼭 요구하거나 또는 암시하지는 않는다. 또한, 용어 “포괄”, “포함” 또는 기타 어떠한 변체는 비배타성인 포함을 커버하는 것을 뜻하며, 따라서 일련의 요소를 포함하는 과정, 방법, 물건 또는 디바이스가 그 요소들을 포함할 뿐만 아니라, 명확히 열거되지 않은 기타 요소도 포함하도록 하고, 또는 이러한 과정, 방법, 물건 또는 디바이스가 고유한 요소를 포함된 것이도록 한다. 더 많은 제약이 없는 상황에서, 구절 “……을 포함한다”가 한정하는 요소는, 상기 요소를 포함하는 과정, 방법, 물건 또는 디바이스에 다른 동일한 요소가 더 존재하는 것을 제외하지 않는다.
본 분야의 기술자는 명세서 및 여기서 공개한 발명을 고려한 후 본 출원에 따른 기타 실시형태를 쉽게 생각할 수 있다. 본 출원의 취지는 본 발명의 모든 변형, 용도 또는 적응성 변화를 포괄하며, 이러한 변형, 용도 또는 적응성 변화는 본 발명의 일반적 원리를 따르고 본 출원에 공개되지 않은 본 분야의 공지상식 또는 관용적 기술수단을 포함한다. 명세서 및 실시예는 예시적인 것으로 볼 뿐이며, 본 발명의 진정한 범위 및 정신은 후술되는 특허청구범위에 나타낸다.
이해해야 할 것은, 본 발명은 위에서 설명되고 도면에 나타낸 정확한 구성에 한정되지 않으며, 그 범위를 벗어나지 않고 다양하게 수정 및 변경할 수 있다. 본 발명의 범위는 후술되는 특허청구범위에 의해서만 한정된다.

Claims (16)

  1. 이동 단말에 적용되는 스크린 제어 방법으로서,
    이동 단말의 이동 방향을 검출하는 단계;
    상기 이동 단말의 스크린 배향을 검출하는 단계;
    미리 설정된 웨어러블 스마트 디바이스로부터 송신한 자세 식별 정보를 수신하는 단계;
    상기 이동 방향, 상기 스크린 배향, 및 상기 자세 식별 정보에서의 손바닥 배향이 전부 제1 미리 설정된 방향인 경우, 미리 설정된 스마트 안경으로 스크린 식별 명령을 송신하고, 상기 미리 설정된 스마트 안경으로부터 송신한 스크린 식별 성공 정보가 수신된 경우, 상기 이동 단말의 스크린을 켜는 단계; 및
    상기 이동 방향, 상기 스크린 배향, 및 상기 자세 식별 정보에서의 손바닥 배향이 전부 제2 미리 설정된 방향인 경우, 상기 이동 단말의 스크린을 끄는 단계 - 상기 제1 미리 설정된 방향은 상기 제2 미리 설정된 방향과는 상이함 - 를 포함하는, 스크린 제어 방법.
  2. 청구항 1에 있어서,
    상기 제1 미리 설정된 방향은 위측 방향이고, 상기 제2 미리 설정된 방향은 아래측 방향인, 스크린 제어 방법.
  3. 청구항 1 또는 청구항 2에 있어서,
    상기 이동 단말의 이동 방향을 검출하는 단계는,
    상기 이동 단말 내의 중력 센서가 검출한 중력 값을 획득하는 단계;
    상기 중력 값이 제1 미리 설정된 역치보다 큰 경우, 상기 이동 단말의 이동 방향을 상기 제1 미리 설정된 방향으로 확정하는 단계; 및
    상기 중력 값이 제2 미리 설정된 역치보다 작은 경우, 상기 이동 단말의 이동 방향을 상기 제2 미리 설정된 방향으로 확정하는 단계 - 상기 제1 미리 설정된 역치는 상기 제2 미리 설정된 역치보다 큼 - 를 포함하는, 스크린 제어 방법.
  4. 청구항 1 또는 청구항 2에 있어서,
    상기 이동 단말의 스크린 배향을 검출하는 단계는,
    상기 이동 단말 내의 중력 센서가 수집한 Z축 데이터를 획득하는 단계;
    상기 Z축 데이터가 양수인 경우, 상기 이동 단말의 스크린 배향을 상기 제1 미리 설정된 방향으로 확정하는 단계; 및
    상기 Z축 데이터가 음수인 경우, 상기 이동 단말의 스크린 배향을 상기 제2 미리 설정된 방향으로 확정하는 단계를 포함하는, 스크린 제어 방법.
  5. 청구항 1에 있어서,
    상기 이동 단말의 스크린 상태를 검출하는 단계;
    상기 이동 단말의 스크린이 꺼진 상태인 경우, 상기 이동 단말의 스크린을 켜는 단계를 수행하는 단계; 및
    상기 이동 단말의 스크린이 켜진 상태인 경우, 상기 이동 단말의 스크린을 끄는 단계를 수행하는 단계를 더 포함하는, 스크린 제어 방법.
  6. 삭제
  7. 삭제
  8. 이동 단말에 응용되는 스크린 제어 장치로서,
    이동 단말의 이동 방향을 검출하도록 구성된 이동 방향 검출 유닛;
    상기 이동 단말의 스크린 배향을 검출하도록 구성된 스크린 배향 검출 유닛;
    미리 설정된 웨어러블 스마트 디바이스로부터 송신한 자세 식별 정보를 수신하도록 구성된 정보 수신 유닛;
    상기 이동 방향, 상기 스크린 배향, 및 상기 자세 식별 정보에서의 손바닥 배향이 전부 제1 미리 설정된 방향인 경우, 미리 설정된 스마트 안경으로 스크린 식별 명령을 송신하도록 구성된 명령 송신 유닛;
    상기 미리 설정된 스마트 안경으로부터 송신한 스크린 식별 성공 정보가 수신된 경우, 상기 이동 단말의 스크린을 켜도록 구성된 스크린 파워 온 유닛; 및
    상기 이동 방향, 상기 스크린 배향, 및 상기 자세 식별 정보에서의 손바닥 배향이 전부 제2 미리 설정된 방향인 경우, 상기 이동 단말의 스크린을 끄도록 구성된 스크린 파워 오프 유닛을 포함하되,
    상기 제1 미리 설정된 방향은 상기 제2 미리 설정된 방향과는 상이한, 스크린 제어 장치.
  9. 청구항 8에 있어서,
    상기 제1 미리 설정된 방향은 위측 방향이고, 상기 제2 미리 설정된 방향은 아래측 방향인, 스크린 제어 장치.
  10. 청구항 8 또는 청구항 9에 있어서,
    상기 이동 방향 검출 유닛은,
    상기 이동 단말 내의 중력 센서가 검출한 중력 값을 획득하도록 구성된 중력 값 획득 모듈;
    상기 중력 값이 제1 미리 설정된 역치보다 큰 경우, 상기 이동 단말의 이동 방향을 상기 제1 미리 설정된 방향으로 확정하도록 구성된 제1 이동 방향 확정 모듈; 및
    상기 중력 값이 제2 미리 설정된 역치보다 작은 경우, 상기 이동 단말의 이동 방향을 상기 제2 미리 설정된 방향으로 확정하도록 구성된 제2 이동 방향 확정 모듈을 포함하되,
    상기 제1 미리 설정된 역치는 상기 제2 미리 설정된 역치보다 큰, 스크린 제어 장치.
  11. 청구항 8 또는 청구항 9에 있어서,
    상기 스크린 배향 검출 유닛은,
    상기 이동 단말 내의 중력 센서가 수집한 Z축 데이터를 획득하도록 구성된 데이터 획득 모듈;
    상기 Z축 데이터가 양수인 경우, 상기 이동 단말의 스크린 배향을 상기 제1 미리 설정된 방향으로 확정하도록 구성된 제1 스크린 배향 확정 모듈; 및
    상기 Z축 데이터가 음수인 경우, 상기 이동 단말의 스크린 배향을 상기 제2 미리 설정된 방향으로 확정하도록 구성된 제2 스크린 배향 확정 모듈을 포함하는, 스크린 제어 장치.
  12. 청구항 8에 있어서,
    상기 이동 단말의 스크린 상태를 검출하도록 구성된 스크린 상태 검출 유닛;
    상기 이동 단말의 스크린이 꺼진 상태인 경우, 상기 이동 단말의 스크린을 켜도록 구성된 스크린 파워 온 유닛; 및
    상기 이동 단말의 스크린이 켜진 상태인 경우, 상기 이동 단말의 스크린을 끄도록 구성된 상기 스크린 파워 오프 유닛을 더 포함하는, 스크린 제어 장치.
  13. 삭제
  14. 삭제
  15. 프로세서; 및
    상기 프로세서가 실행 가능한 명령을 저장하도록 구성된 메모리를 포함하며,
    상기 프로세서는,
    이동 단말의 이동 방향을 검출하고;
    상기 이동 단말의 스크린 배향을 검출하고;
    미리 설정된 웨어러블 스마트 디바이스로부터 송신한 자세 식별 정보를 수신하고;
    상기 이동 방향, 상기 스크린 배향, 및 상기 자세 식별 정보에서의 손바닥 배향이 제1 미리 설정된 방향인 경우, 미리 설정된 스마트 안경으로 스크린 식별 명령을 송신하고; 상기 미리 설정된 스마트 안경으로부터 송신한 스크린 식별 성공 정보가 수신된 경우, 상기 이동 단말의 스크린을 켜고;
    상기 이동 방향, 상기 스크린 배향, 및 상기 자세 식별 정보에서의 손바닥 배향이 전부 제2 미리 설정된 방향인 경우, 상기 이동 단말의 스크린을 끄도록 구성되며, 상기 제1 미리 설정된 방향은 상기 제2 미리 설정된 방향과는 상이한, 이동 단말.
  16. 삭제
KR1020167011809A 2015-08-31 2015-12-29 스크린 제어 방법 및 장치 KR101876655B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510547144.3A CN105183156B (zh) 2015-08-31 2015-08-31 屏幕控制方法及装置
CN201510547144.3 2015-08-31
PCT/CN2015/099598 WO2017036035A1 (zh) 2015-08-31 2015-12-29 屏幕控制方法及装置

Publications (2)

Publication Number Publication Date
KR20170037869A KR20170037869A (ko) 2017-04-05
KR101876655B1 true KR101876655B1 (ko) 2018-07-09

Family

ID=54905282

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167011809A KR101876655B1 (ko) 2015-08-31 2015-12-29 스크린 제어 방법 및 장치

Country Status (8)

Country Link
US (1) US10191564B2 (ko)
EP (1) EP3136201B1 (ko)
JP (1) JP6310556B2 (ko)
KR (1) KR101876655B1 (ko)
CN (1) CN105183156B (ko)
MX (1) MX369243B (ko)
RU (1) RU2646364C2 (ko)
WO (1) WO2017036035A1 (ko)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105183156B (zh) * 2015-08-31 2019-03-12 小米科技有限责任公司 屏幕控制方法及装置
CN105700681B (zh) * 2015-12-31 2018-10-12 联想(北京)有限公司 一种控制方法、电子设备
CN105786183B (zh) * 2016-02-29 2019-01-11 宇龙计算机通信科技(深圳)有限公司 控制方法、控制装置和可穿戴智能设备
AU2017284726B2 (en) 2016-06-16 2020-04-09 Farmhannong Co., Ltd. Protoporphyrinogen oxidase variants and methods and compositions for conferring and/or enhancing herbicide tolerance using the same
CN106444349B (zh) * 2016-07-18 2019-07-09 深圳市亿能科技有限公司 智能手表翻转阈值设置方法及系统
CN106054581A (zh) * 2016-07-28 2016-10-26 努比亚技术有限公司 一种智能手表屏幕的控制方法和智能手表
CN106339088B (zh) * 2016-08-30 2020-03-10 维沃移动通信有限公司 检测设备运动状态的方法、手持式移动终端及穿戴式设备
CN107817887B (zh) * 2016-09-13 2021-07-20 上海中兴软件有限责任公司 一种信息处理方法和装置
CN106529258A (zh) * 2016-11-30 2017-03-22 赵云龙 移动设备的安全管理方法及系统
CN106600689A (zh) * 2016-12-16 2017-04-26 北京小米移动软件有限公司 3d打印数据生成方法及装置
CN106708271A (zh) * 2016-12-30 2017-05-24 珠海市魅族科技有限公司 一种终端屏幕控制方法及装置
CN106851118A (zh) * 2017-04-05 2017-06-13 深圳天珑无线科技有限公司 相机控制方法及装置
CN106816139A (zh) * 2017-04-11 2017-06-09 广东美的制冷设备有限公司 背光源的控制方法、控制装置及带有背光源的终端
CN107193519A (zh) * 2017-05-26 2017-09-22 珠海市魅族科技有限公司 显示控制方法及装置、计算机装置和计算机可读存储介质
CN107317927A (zh) * 2017-06-22 2017-11-03 深圳市沃特沃德股份有限公司 与用户互动的方法及智能终端
US10866652B2 (en) 2017-11-13 2020-12-15 Samsung Electronics Co., Ltd. System and method for distributed device tracking
CN107908983A (zh) * 2017-11-14 2018-04-13 维沃移动通信有限公司 一种控制移动终端屏幕的方法和移动终端
CN108595930B (zh) * 2018-04-23 2023-01-10 北京小米移动软件有限公司 终端设备控制方法及装置
US10868814B2 (en) 2018-04-30 2020-12-15 Samsung Electronics Co., Ltd. System and method for flow-based architecture
CN108601072A (zh) * 2018-05-10 2018-09-28 Oppo广东移动通信有限公司 熄屏显示的方法、移动终端以及存储介质
US11378805B2 (en) * 2018-06-25 2022-07-05 Maxell, Ltd. Head-mounted display, head-mounted display linking system, and method for same
US11226408B2 (en) * 2018-07-03 2022-01-18 Panasonic Intellectual Property Management Co., Ltd. Sensor, estimating device, estimating method, and recording medium
CN109101119B (zh) * 2018-07-23 2021-10-22 Oppo广东移动通信有限公司 终端控制方法、装置以及移动终端
KR102539579B1 (ko) 2018-12-18 2023-06-05 삼성전자주식회사 정보의 표시 영역을 적응적으로 변경하기 위한 전자 장치 및 그의 동작 방법
CN111756907A (zh) * 2019-03-26 2020-10-09 北京小米移动软件有限公司 操作执行方法、装置及存储介质
CN110058686B (zh) * 2019-03-27 2023-01-24 南京维沃软件技术有限公司 一种控制方法及终端设备
CN110686667B (zh) * 2019-09-24 2024-01-09 努比亚技术有限公司 方向指示方法、双屏终端及计算机可读存储介质
CN111626161A (zh) * 2020-05-15 2020-09-04 Oppo(重庆)智能科技有限公司 人脸识别方法及装置、终端和可读存储介质
JP6892960B1 (ja) * 2020-09-29 2021-06-23 Kddi株式会社 制御装置、情報処理システム、制御方法及びプログラム
CN112285915B (zh) * 2020-10-26 2023-07-18 腾讯科技(深圳)有限公司 增强现实组件以及显微镜
US11809641B2 (en) 2021-02-05 2023-11-07 Nokia Technologies Oy Orientation of visual content rendered on a display of a mobile device
US12014099B2 (en) * 2022-03-08 2024-06-18 Google Llc Multi-device awareness for casting and content delivery

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150007643A (ko) * 2013-07-12 2015-01-21 삼성전자주식회사 시선인식을 이용한 장치 연결 방법 및 장치
KR20150026027A (ko) * 2013-08-30 2015-03-11 엘지전자 주식회사 안경형 단말기와 이를 포함하는 시스템 및 안경형단말기의 제어방법

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9134760B2 (en) * 2000-07-17 2015-09-15 Microsoft Technology Licensing, Llc Changing power mode based on sensors in a device
ES2304152T3 (es) * 2004-10-06 2008-09-16 Nokia Corporation Control de acceso a un terminal de datos.
US20110035662A1 (en) * 2009-02-18 2011-02-10 King Martin T Interacting with rendered documents using a multi-function mobile device, such as a mobile phone
US8344998B2 (en) * 2008-02-01 2013-01-01 Wimm Labs, Inc. Gesture-based power management of a wearable portable electronic device with display
CN101980516A (zh) * 2010-10-26 2011-02-23 浙江大学 一种用于Android系统手机上的锁屏以及解屏方法
JP2013207574A (ja) * 2012-03-28 2013-10-07 Panasonic Corp 携帯端末
JP5884689B2 (ja) * 2012-09-11 2016-03-15 カシオ計算機株式会社 携帯機器及びその制御方法、並びに、携帯機器の制御プログラム
US20160147300A1 (en) * 2013-06-28 2016-05-26 Nokia Technologies Oy Supporting Activation of Function of Device
WO2015011178A1 (en) 2013-07-24 2015-01-29 I-Tech Ab Use of the enantiomer dexmedetomidine as inhibitor for marine biofouling of surfaces
CN103399642A (zh) * 2013-08-21 2013-11-20 珠海市魅族科技有限公司 一种屏幕唤醒的控制方法及终端
KR102135353B1 (ko) * 2013-08-30 2020-07-17 엘지전자 주식회사 시계형 단말기와 이를 포함하는 시스템
CN103581443A (zh) * 2013-11-14 2014-02-12 惠州Tcl移动通信有限公司 一种基于传感器的智能终端自动唤醒方法及系统
KR102195518B1 (ko) * 2013-12-13 2020-12-29 삼성전자 주식회사 전자장치의 화면 표시 제어장치 및 방법
WO2015111778A1 (ko) * 2014-01-27 2015-07-30 엘지전자 주식회사 안경형 단말기와 그 안경형 단말기의 제어방법
CN103927117A (zh) * 2014-03-26 2014-07-16 广东明创软件科技有限公司 快速点亮屏幕的方法及其移动终端
KR102218553B1 (ko) * 2014-04-21 2021-02-22 삼성전자주식회사 화면 제어를 위한 방법 및 전자장치
CN104090649A (zh) * 2014-05-20 2014-10-08 上海翰临电子科技有限公司 一种智能表带及其操作控制方法
CN104765551B (zh) * 2015-04-20 2017-11-03 广东欧珀移动通信有限公司 点亮移动终端屏幕的方法、装置及系统
CN104808800A (zh) * 2015-05-21 2015-07-29 上海斐讯数据通信技术有限公司 智能眼镜设备、移动终端及移动终端操作方法
CN105183156B (zh) * 2015-08-31 2019-03-12 小米科技有限责任公司 屏幕控制方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150007643A (ko) * 2013-07-12 2015-01-21 삼성전자주식회사 시선인식을 이용한 장치 연결 방법 및 장치
KR20150026027A (ko) * 2013-08-30 2015-03-11 엘지전자 주식회사 안경형 단말기와 이를 포함하는 시스템 및 안경형단말기의 제어방법

Also Published As

Publication number Publication date
CN105183156B (zh) 2019-03-12
KR20170037869A (ko) 2017-04-05
US20170060266A1 (en) 2017-03-02
MX369243B (es) 2019-10-30
JP2017533480A (ja) 2017-11-09
US10191564B2 (en) 2019-01-29
EP3136201A1 (en) 2017-03-01
JP6310556B2 (ja) 2018-04-11
EP3136201B1 (en) 2018-10-17
WO2017036035A1 (zh) 2017-03-09
CN105183156A (zh) 2015-12-23
MX2016007020A (es) 2017-06-29
RU2646364C2 (ru) 2018-03-02

Similar Documents

Publication Publication Date Title
KR101876655B1 (ko) 스크린 제어 방법 및 장치
EP3096209B1 (en) Method and device for recognizing object
KR101850034B1 (ko) 이동 단말기 및 그 제어방법
US11551726B2 (en) Video synthesis method terminal and computer storage medium
CN105204742B (zh) 电子设备的控制方法、装置及终端
KR101850035B1 (ko) 이동 단말기 및 그 제어방법
CN106489113B (zh) Vr控制的方法、装置及电子设备
EP3476557B1 (en) Method and device for controlling a hair trimming apparatus and hair trimming apparatus
KR102102643B1 (ko) 글래스 타입 단말기
JP2017538300A (ja) 無人航空機の撮影制御方法及び撮影制御装置、電子デバイス、コンピュータプログラム及びコンピュータ読取可能記憶媒体
CN108965691B (zh) 摄像头控制方法、装置、移动终端及存储介质
EP3343343A1 (en) Mobile terminal and control method for the mobile terminal
EP3136206B1 (en) Method and apparatus for setting threshold
EP2952999B1 (en) Wearable mobile terminal with improved photo shutter and touch sensor
CN105847155A (zh) 传输通知消息的方法及装置
CN105511603A (zh) 设备控制方法和装置
KR20150062500A (ko) 이동 단말기 및 이동 단말기 제어방법
KR101537624B1 (ko) 이동단말기 및 그 제어방법
CN108509863A (zh) 信息提示方法、装置和电子设备
CN113821129B (zh) 一种显示窗口控制方法及电子设备
CN112462963A (zh) 非接触手势控制方法、装置及存储介质
EP3951651A1 (en) Method for fingerprint identification, terminal device and storage medium
KR20160097785A (ko) 글래스 타입 단말기 및 그 제어 방법
CN117041728A (zh) 对焦方法及装置、电子设备、可读存储介质
KR102161513B1 (ko) 이동단말기 및 그 제어방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant