KR20180088450A - 실시간 정보에 따라 디스플레이 객체를 디스플레이하는 방법 및 장치 - Google Patents

실시간 정보에 따라 디스플레이 객체를 디스플레이하는 방법 및 장치 Download PDF

Info

Publication number
KR20180088450A
KR20180088450A KR1020187018757A KR20187018757A KR20180088450A KR 20180088450 A KR20180088450 A KR 20180088450A KR 1020187018757 A KR1020187018757 A KR 1020187018757A KR 20187018757 A KR20187018757 A KR 20187018757A KR 20180088450 A KR20180088450 A KR 20180088450A
Authority
KR
South Korea
Prior art keywords
display
real
display object
point
sliding
Prior art date
Application number
KR1020187018757A
Other languages
English (en)
Other versions
KR102148583B1 (ko
Inventor
위에웨이 쩡
Original Assignee
알리바바 그룹 홀딩 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 알리바바 그룹 홀딩 리미티드 filed Critical 알리바바 그룹 홀딩 리미티드
Publication of KR20180088450A publication Critical patent/KR20180088450A/ko
Application granted granted Critical
Publication of KR102148583B1 publication Critical patent/KR102148583B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

실시간 정보에 따라 디스플레이 객체를 디스플레이하는 방법 및 장치는, 특정 기간 동안 실시간 정보에 대응하는 위치 정보를 취득하는 단계(110); 이전의 기간에서 취득된 위치 정보에 따라 시작점을 결정하고, 현재 기간에서 취득된 위치 정보에 따라 종료점을 결정하는 단계(120); 및 상기 시작점과 상기 종료점 사이를 슬라이딩하는 것으로 디스플레이 객체를 디스플레이하는 단계(130)를 포함한다. 본 발명은 실시간 정보에 상당히 큰 변화가 일어날 때 점프 현상이 일어나는 것을 방지하고, 실시간 정보에 매우 작은 변화가 있어날 때 흔들림 현상이 일어나는 것을 방지함으로써 디스플레이 객체의 디스플레이 효과를 향상시킨다.

Description

실시간 정보에 따라 디스플레이 객체를 디스플레이하는 방법 및 장치
본 출원은, 전체 내용이 본 명세서에 병합된, 2015년 12월 4일자로 출원된, 발명의 명칭이 "Method and Apparatus for Displaying Display Object According to Real-Time Information"인 중국 특허 출원 번호 201510884339.7의 우선권을 주장한다.
기술분야
본 발명은 컴퓨터 및 네트워크 기술 분야에 관한 것으로, 보다 상세하게는, 실시간 정보에 따라 디스플레이 객체를 디스플레이하는 방법 및 장치에 관한 것이다.
카메라, 자이로스코프, 가속도계, 거리 센서 및 다른 디바이스들이 단말에 널리 적용되면서 응용 프로그램은 이들 디바이스를 사용하여 실시간 정보를 제공하여 새로운 기능을 달성하거나 완전히 새로운 방식으로 기존 기능을 달성할 수 있다. 일부 구현예에서, 실시간 정보가 변하면, 사용자와 상호 작용하는 화면 상의 디스플레이 객체가 이에 따라 변하여, 사용자에 직관적이고 새로운 경험을 제공할 수 있다.
이러한 구현예에서, 디스플레이 객체 자체가 실시간 정보와 함께 변할 수 있음에 더하여, 화면 상의 디스플레이 객체의 디스플레이 위치가 또한 실시간 정보에 따라 변할 수 있다. 예를 들어, 볼(ball)이 화면 상에 디스플레이될 위치는, 사용자가 볼을 손에 잡고 있는 것처럼, 실시간 비디오에서 사용자의 손의 위치에 따라 결정될 수 있다.
현재 기술에서, 응용 프로그램은, 센서 또는 다른 디바이스로부터 출력되는 실시간 정보를, 특정 기간(period) 동안, 추출하고, 실시간 정보를 미리 설정된 알고리즘에 따라 화면 상의 대응하는 디스플레이 위치로 매핑하고, 화면 상의 디스플레이 위치에 디스플레이 객체를 디스플레이한다. 그리하여, 실시간 정보가 기간마다 변하면, 디스플레이 객체는 화면 상의 새로운 디스플레이 위치에 디스플레이되고, 각각의 기간마다 한번씩 이동하고, 그래서 디스플레이 객체가 단계적으로 이동하는 것처럼 보인다.
이러한 구현 방식에 따르면, 실시간 정보에 비교적 큰 변화가 있으면 화면 상의 디스플레이 객체의 위치가 크게 변하여, 화면에서 디스플레이 객체가 점프하는 것처럼 보이고; 실시간 정보가 여러 기간 동안 아주 작은 변화를 연속적으로 나타내면 화면에서 디스플레이 객체가 흔들리는 것처럼 보인다. 이러한 디스플레이 효과는 두 경우 모두에서 바람직하지 않다.
이를 감안하여 본 발명은, 실시간 정보에 따라 디스플레이 객체를 디스플레이하는 방법으로서, 특정 기간 동안 실시간 정보에 대응하는 위치 정보를 취득하는 단계; 이전의 기간에서 취득된 위치 정보에 따라 시작점을 결정하고, 현재 기간에서 취득된 위치 정보에 따라 종료점을 결정하는 단계; 및 상기 시작점과 상기 종료점 사이를 슬라이딩(sliding)하는 것으로 디스플레이 객체를 디스플레이하는 단계를 포함하는, 상기 디스플레이 객체를 디스플레이하는 방법을 제공한다.
또한, 본 발명은, 실시간 정보에 따라 디스플레이 객체를 디스플레이하는 장치로서, 특정 기간 동안 실시간 정보에 대응하는 위치 정보를 취득하도록 구성된 위치 정보 취득 유닛; 이전의 기간에서 취득된 위치 정보에 따라 시작점을 결정하고, 현재 기간에서 취득된 위치 정보에 따라 종료점을 결정하도록 구성된 시작점 및 종료점 결정 유닛; 및 상기 시작점과 상기 종료점 사이를 슬라이드하는 것으로 디스플레이 객체를 디스플레이하도록 구성된 슬라이딩 디스플레이 유닛을 포함하는, 상기 디스플레이 객체를 디스플레이하는 장치를 더 제공한다.
상기 기술적 해결 방법에 따르면, 본 발명의 실시예에서는 2개의 인접한 기간에서 실시간 정보에 대응하는 위치 정보에 따라 시작점과 종료점을 결정하고, 상기 시작점과 상기 종료점 사이를 슬라이딩하는 것으로 디스플레이 객체를 디스플레이하여, 상기 디스플레이된 디스플레이 객체를 상기 시작점으로부터 상기 종료점까지 평활하게 슬라이딩시켜, 이에 의해 실시간 정보에 비교적 큰 변화가 일어나면 점프 현상이 일어나는 것을 방지하고, 실시간 정보에 매우 작은 변화가 일어나면 흔들림 현상이 일어나는 것을 방지하여, 디스플레이 객체의 디스플레이 효과를 향상시킬 수 있다.
도 1은 본 발명의 일 실시예에서 실시간 정보에 따라 디스플레이 객체를 디스플레이하는 방법을 나타내는 흐름도;
도 2는 본 발명의 일 실시예에 따라 균일한 확산 방식으로 확산점을 분배하는 개략도;
도 3은 본 발명의 일 실시예에 따라 가속 확산 방식으로 확산점을 분배하는 개략도;
도 4는 본 발명의 일 실시예에 따라 감속 확산 방식으로 확산점을 분배하는 개략도;
도 5는 본 발명의 일 실시예에 따라 얼굴 로그인 인터페이스의 개략도;
도 6은 본 발명의 일 실시예에 따라 사용자의 실시간 머리 이미지를 디스플레이하는 흐름도;
도 7은 단말 또는 서버의 하드웨어 구조도; 및
도 8은 본 발명의 일 실시예에 따라 실시간 정보에 따라 디스플레이 객체를 디스플레이하는 장치의 논리 구조도.
본 발명의 실시예들은 실시간 정보에 따라 디스플레이 객체를 디스플레이하는 새로운 방법을 제공한다. 본 방법은, 2개의 연속적인 기간에서 실시간 정보에 대응하는 화면 디스플레이 위치들 간에, 이전의 기간에 대응하는 디스플레이 위치로부터 현재 기간에 대응하는 디스플레이 위치로 애니메이션 방식으로 슬라이딩하는 것을 디스플레이한다. 이러한 방식으로 디스플레이된 디스플레이 객체는 실시간 정보에 지나치게 크거나 지나치게 작은 변화가 있는 것으로 인해 점프 현상이나 흔들림 현상을 나타내지 않고, 디스플레이 효과가 향상되어 현재의 기술에서 나타나는 문제점을 해결한다.
본 발명의 실시예들은 디스플레이 객체를 디스플레이하는 위치를 결정하기 위해 실시간 정보를 취득할 수 있고 계산 및 저장 능력을 갖는 디바이스에 적용될 수 있다. 이 디바이스는 휴대 전화, 태블릿 컴퓨터, PC(개인용 컴퓨터), 랩탑 컴퓨터, 서버 등을 포함할 수 있다. 이 디바이스는 자체의 센서 또는 카메라로부터 실시간 정보를 판독할 수 있고 또는 네트워크를 통해 다른 디바이스로부터 목표 객체의 실시간 정보를 연속적으로 취득할 수 있다. 실시간 정보는, 시간에 따라 변하며 실시간 비디오에서 객체의 이동 속력, 실시간 이미지의 그레이 스케일, 산업 제어 프로세스에서의 다양한 실시간 변수, 단말의 실시간 위치 데이터 등과 같은, 디바이스에 의해 수집될 수 있는 임의의 파라미터를 포함한다. 또한, 디스플레이 객체는 비-실시간 이미지 또는 비디오일 수 있거나 실시간 이미지 및/또는 실시간 비디오일 수 있다. 본 발명의 실시예에서 실시간 정보의 유형 및 소스, 또는 디스플레이 객체의 특정 유형에는 제한이 없다.
본 발명의 일 실시예에서 실시간 정보에 따라 디스플레이 객체를 디스플레이하는 흐름은 도 1에 도시된다. 흐름을 수행하는 주체는 응용 프로그램, 응용 프로그램의 프로세스 또는 스레드(thread), 서비스, 또는 서비스의 프로세스 또는 스레드일 수 있다.
단계(110): 특정 기간 동안 실시간 정보에 대응하는 위치 정보를 취득하는 단계.
실제 응용 시나리오의 특정 구현예에 따라, 위치 정보는 디스플레이 객체의 화면 크기와 일치하는 화면 위치의 좌표이거나 또는 화면 위치의 좌표를 결정하는데 사용될 수 있는 다른 파라미터(예를 들어, 화면 비율 좌표)일 수 있다. 본 발명의 실시예를 수행하는 주체는 특정 기간 동안 주체가 위치된 디바이스의 센서 또는 카메라로부터 실시간 정보를 판독하거나 또는 네트워크로부터 실시간 정보를 취득하고 나서, 실시간 정보를 미리 설정된 알고리즘의 입력으로 사용하여 대응하는 위치 정보를 획득할 수 있다. 대안적으로 주체는 네트워크로부터 직접 실시간 정보에 대응하는 위치 정보를 획득할 수 있나, 본 발명의 실시예는 이로 제한되지 않는다.
실시간 정보에 대응하는 위치 정보를 생성하는 종래의 방법은 본 명세서에서 참조될 수 있고 여기서 반복되지 않을 것이다.
단계(120): 이전의 기간에서 취득된 위치 정보에 따라 시작점을 결정하고, 현재 기간에서 취득된 위치 정보에 따라 종료점을 결정하는 단계.
취득된 위치 정보가 디스플레이 객체의 화면 크기와 일치하는 화면 위치의 좌표인 경우, 이전의 기간에서의 위치 정보는 바로 시작점으로 사용되고 현재 기간에서의 위치 정보는 바로 종료점으로 사용되며; 만약 그렇지 않으면, 위치 정보와 화면 위치 좌표 간의 관계에 따라 이전의 기간에서의 위치 정보는 화면 위치의 좌표로 변환되고 나서 시작점으로 사용되고, 현재 기간에서의 위치 정보는 화면 위치의 좌표로 변환되고 나서 종료점으로 사용된다.
위치 정보를 화면 위치의 좌표로 변환하는 방법은 일반적으로 상이한 응용 시나리오에서는 상이하다. 예를 들어, 각각의 기간에서 취득된 위치 정보는 화면 비율 좌표(sX, sY)이고, 여기서 sX는 [0, 1)의 범위에서의 X 축 비율 좌표이고, 위치의 X 축 화면 좌표 대 X 축의 최대값의 비율을 나타내고; sY는 [0, 1)의 범위에서의 Y 축 비율 좌표이고, 위치의 Y 축 화면 좌표 대 Y 축의 최대 값의 비율을 나타낸다. 디스플레이 객체의 화면의 폭 및 길이에 따라, sX 및 sY는 화면 위치의 좌표의 X 축 좌표(x) 및 Y 축 좌표(y)로 변환될 수 있다. 일 예에서, 현재 화면이 전체 폭(W) 및 전체 길이(H)를 갖는다고 가정하면, (sX, sY)로부터 변환된 화면 위치의 좌표는 W 및 H의 것과 같은 단위, 예를 들어, 픽셀 또는 mm를 갖는 (sX*W, Sy*H)이다.
단계(130): 시작점과 종료점 사이를 슬라이딩하는 것으로 디스플레이 객체를 디스플레이하는 단계.
현재 기간의 시작점과 종료점을 결정한 후, 마치 디스플레이 객체가 시작점으로부터 종료점까지 슬라이딩하는 것처럼 애니메이션 방식으로 시작점으로부터 종료점까지 디스플레이 객체를 점차적으로 이동시키기 위해 현재 기간에서 슬라이딩 디스플레이가 수행될 수 있다. 종래 기술에 따른 동적 이미징 및 애니메이션을 위한 다양한 기술적 수단이 슬라이딩 디스플레이를 위한 방법으로 참조될 수 있으나, 본 발명의 실시예는 이로 제한되지 않는다.
일 예에서, 시작점과 종료점 사이에 디스플레이 객체를 슬라이딩하는 트랙이 먼저 결정될 수 있고, N(N은 자연수임)개의 확산 위치점들이 슬라이딩 트랙에서 선택될 수 있다. 이후, 슬라이딩 효과를 얻기 위해 특정 단일점 디스플레이 지속 시간 동안 디스플레이 객체가 시작점, N개의 확산 위치점, 및 종료점에서 순차적으로 디스플레이된다. 여기서, 슬라이딩 트랙은 직선 또는 곡선일 수 있다. 확산점은 원하는 슬라이딩 디스플레이 효과에 따른 방식으로, 예를 들어, 균일한 확산 방식, 가속 확산 방식 또는 감속 확산 방식으로 선택될 수 있다. A가 시작점이고, B가 종료점이고, A와 B 사이의 슬라이딩 트랙이 직선이라고 가정하면, 도 2에 도시된 바와 같이, 균일한 확산 방식에서 확산점들은 A와 B 사이에 균일하게 분배되고; 가속 확산 방식에서 확산점들은 도 3에 도시된 바와 같이 A로부터 B로 가는 방향으로 점차적으로 상호 거리가 증가하고; 감속 확산 방식에서 확산점들은 도 4에 도시된 바와 같이 A로부터 B로 가는 방향으로 점차적으로 상호 거리가 감소한다.
상기 예에서, 슬라이딩 트랙, N의 값, 확산점들이 선택되는 방식, 및 단일점 디스플레이 지속 시간은 각 기간에서 동일하거나 상이할 수 있다. 각각의 기간이 상이한 슬라이딩 트랙, N의 값, 확산점들이 선택되는 방식, 및/또는 단일점 디스플레이 지속 시간을 가질 때, 여러 미리 설정된 옵션이 폴링(polled)되거나 하나의 옵션이 이로부터 랜덤하게 선택되거나, 또는 특정 슬라이딩 트랙, 특정 N 값, 확산점들이 선택되는 방식, 및/또는 단일점 디스플레이 지속 시간은 위치 정보에 따라 또는 위치 정보의 변화에 따라 결정될 것이나, 본 발명의 실시예는 이로 제한되지 않는다.
예를 들어, N의 값 및 단일점 디스플레이 지속 시간은 (이전의 기간에서의 위치 정보, 현재 기간에서의 위치 정보, 및 현재 기간에서의 슬라이딩 트랙에 의해 결정되는) 현재 기간에서의 디스플레이 객체의 슬라이딩 거리에 따라 선택될 수 있다. 슬라이딩 거리가 길면 N의 값이 증가하고, 단일점 디스플레이 지속 시간이 감소하며; 슬라이딩 거리가 짧으면 N의 값이 감소하고, 단일점 디스플레이 지속 시간은 증가해서, 보다 나은 디스플레이 효과를 얻을 수 있다.
디스플레이 객체는 일반적으로 자체 형상을 갖고 있고, 특정 화면 디스플레이 영역을 차지한다. 본 발명의 실시예에서 시작점, 종료점, 및 확산점들에서 디스플레이 객체를 디스플레이한다는 것은 디스플레이 객체를, 고정된 점, 예를 들어, 중심점, 좌상 경계점 등을 위치 지정하는데 시작점, 종료점 또는 확산점들을 사용한다는 것을 의미한다.
특정 기간에서의 총 슬라이딩 지속 시간, 즉 디스플레이 객체가 시작점으로부터 종료점까지 슬라이딩하는데 요구되는 시간은, 기간의 길이를 초과하거나 이 기간의 길이 미만이거나 이 기간의 길이와 같을 수 있다는 것을 알아야 한다. 즉, 현재 기간이 시작될 때 이전의 기간에서의 디스플레이 객체의 슬라이딩 디스플레이가 종료되었거나, 막 종료되거나 아직 종료되지 않았을 수 있다.
이전의 기간에서의 디스플레이 객체의 슬라이딩 디스플레이가 현재 기간이 시작될 때 종료되지 않은 경우, 현재 기간의 시작점은 현재 기간이 시작될 때의 디스플레이 객체의 디스플레이 위치로 변할 수 있고, 완료되지 않은 이전의 기간에서의 슬라이딩 디스플레이 부분은 취소된다. 그리하여, 디스플레이 객체는 현재 기간이 시작될 때 디스플레이 위치(즉, 이전의 기간의 슬라이딩 프로세스에서 중간 위치)로부터 종료점까지 슬라이딩할 수 있어서, 디스플레이 위치가 실시간 정보의 변화를 보다 신속하게 반영할 수 있고, 디스플레이 객체가 평활하게 슬라이드하는 디스플레이 효과를 여전히 얻을 수 있다.
일부 응용 시나리오에서, 실시간 정보로부터 대응하는 위치 정보를 획득하기 위한 프로세스에서 기계 학습 알고리즘이 사용된다. 예를 들어, 카메라에 의해 촬영된 실시간 비디오의 일부 특성 값에 따라 위치 정보가 결정되는 응용에서는 비디오 특성 값을 인식하기 위해 신경망 알고리즘이 자주 사용된다. 매번 수집되는 실시간 정보와 처리 결과들이 모두 알고리즘을 수정하는 데 사용되기 때문에 이전의 기간과 현재 기간이 정확히 동일한 실시간 정보를 가질 때 알고리즘에 의해 출력되는 위치 정보에 작은 차이가 있을 수 있다. 그 결과 사용자는 디스플레이 객체가 안정적이지 못하다는 느낌을 자주 받게 된다.
이러한 상황을 피하기 위해, 현재 기간에서 슬라이딩하는 시작점과 종료점을 결정한 후, 시작점과 종료점 사이의 거리가 미리 결정된 임계값보다 더 작은지 여부를 결정할 수 있다. 만약 그렇다면, 디스플레이 객체가 현재 위치에 디스플레이되고, 현재 기간에서는 슬라이딩 디스플레이가 더 이상 수행되지 않는다. 여기서, 미리 결정된 임계값을 선택하는 것은 기계 학습 알고리즘의 자체 학습 프로세스가 위치 정보에 미칠 수 있는 영향에 따라 결정될 수 있다.
따라서, 본 발명의 실시예에서는, 각각의 기간에서 디스플레이 객체의 위치 변화가 슬라이딩하며 디스플레이하는 방식으로 디스플레이된다. 슬라이딩 디스플레이의 시작점과 종료점은 2개의 연속된 기간에서의 실시간 정보에 대응하는 위치 정보에 따라 결정되고, 이에 디스플레이되는 디스플레이 객체를 시작점으로부터 종료점까지 평활하게 이동시켜, 실시간 정보에 지나치게 큰 변화가 있거나 또는 지나치게 작은 변화가 있는 것으로 인해 디스플레이 객체에 점프 현상이 일어나거나 또는 흔들림 현상이 일어나는 것을 방지하여 디스플레이 효과를 향상시킨다.
본 발명의 응용 예에서, 단말 앱(응용 프로그램)은 도 5에 도시된 로그인 인터페이스를 갖는 얼굴 검증 로그인을 사용한다. 이 앱은 얼굴 인식 기술을 사용하여 단말 카메라로부터의 실시간 비디오로부터 사용자의 머리 이미지를 추출하고 사용자의 실시간 머리 이미지를 디스플레이 객체로 사용하여 이를 원으로 디스플레이한다. 사용자의 실시간 머리 이미지가 화면에서 디스플레이되는 위치는 실시간 머리 이미지의 요우(yaw)와 피치(pitch) 정도에 의해 결정된다.
일 예에서, 이 앱은 신경망 알고리즘을 사용하여 사용자의 실시간 머리 이미지의 정면(front)의 수평 방향의 회전 각도와 수직 방향의 회전 각도를 인식하고, 수평 방향의 회전 각도가 X 축 비율 좌표(sX)에 대응하게 하고, 수직 방향의 회전 각도가 Y 축 비율 좌표(sY)에 대응하게 한다. 예를 들어, 인식된 사용자의 실시간 머리 이미지가 수평 방향 및 수직 방향의 정면 머리 이미지인 경우 대응하는 비율 좌표는 (0.5, 0.5)이고 사용자의 실시간 머리 이미지는 화면의 중심에 디스플레이되고; 인식된 실시간 사용자 머리 이미지가 수평 방향의 좌측이고 수직 방향의 정면측(frontal)인 경우 대응하는 비율 좌표는 (0, 0.5)이고 사용자의 실시간 머리 이미지는 좌측 화면 경계의 중심에 디스플레이된다.
그리하여, 사용자가 자신의 머리의 요우 및 피치를 변경할 때, 도 5에 도시된 로그인 인터페이스 상의 사용자의 실시간 머리 이미지가 이에 따라 사용자의 디스플레이 위치를 변경한다. 예를 들어 사용자는 머리를 우측으로 돌려서 실시간 머리 이미지를 화면의 우측으로 이동하게 하거나 또는 머리를 하강시켜서 실시간 머리 이미지를 화면의 아래쪽으로 이동하게 할 수 있다. 사용자의 실시간 머리 이미지가 화면의 하부 절반의 미리 결정된 마킹된 위치로 이동하면 앱은 사용자의 실시간 머리 이미지에 얼굴 검증을 수행하여 사용자의 실시간 머리 이미지를 검증하고 사용자 로그인은 검증이 성공적이면 완료된다.
앱이 실시간 비디오에 얼굴이 포함된 것을 인식하면, 도 6에 도시된 흐름이 사용자의 실시간 머리 이미지를 슬라이딩시키는데 사용될 수 있다.
단계(610): 특정 기간 동안 신경망 알고리즘에 의해 출력을 판독하고, 사용자의 현재 실시간 머리 이미지의 수평 방향의 회전 각도 및 수직 방향의 회전 각도에 대응하는 비율 좌표(sX, sY)를 획득하는 단계.
단계(620): 현재 기간에서 획득된 비율 좌표(sX, sY)를 현재 기간에서의 화면 위치(sX*W, sY*H)의 좌표로 변환하고; 이전의 기간에서의 화면 위치의 좌표를 시작점(A)으로 사용하고, 현재의 기간에서의 화면 위치의 좌표를 종료점(B)으로 사용하는 단계.
단계(630): A와 B 사이의 거리가 미리 결정된 임계값보다 더 작은지 여부를 결정하고; 만약 그렇다면, 사용자의 실시간 머리 이미지를 현재 위치에 계속 디스플레이하고, 현재 기간에서의 슬라이딩 디스플레이의 수행을 중단하고, 단계(610)로 진행하여 그 다음 기간의 위치 정보를 기다리고; 만약 그렇지 않다면 단계(640)로 진행한다.
단계(640): 이전의 기간에서의 슬라이딩 디스플레이가 종료되었는지 여부를 판단하고; 만약 그렇다면, 단계(660)로 진행하고; 만약 그렇지 않다면 단계(650)로 진행한다.
단계(650): 사용자의 실시간 머리 이미지의 현재 디스플레이 위치의 좌표를 시작점(A)으로 설정하고, 현재 위치 후에 있어서 완료되지 못한, 이전 위치에서의 슬라이딩 디스플레이 부분을 취소하는 단계.
단계(660): 균일한 확산 방식, 가속 확산 방식 및 감속 확산 방식들 중 임의의 하나의 방식을 선택하고, A와 B 사이의 선분에 걸쳐 선택된 확산 방식에 따라 미리 결정된 수의 확산점들을 생성하는 단계.
단계(670): 사용자의 실시간 머리 이미지가 점(A)으로부터 점(B)까지 슬라이딩하는 디스플레이 효과를 달성하기 위해, 미리 결정된 단일점 디스플레이 지속 시간 동안, 사용자의 실시간 머리 이미지를, 점(A), A로부터 B로 가는 방향으로 각각의 확산점, 및 점(B)에 순차적으로 디스플레이하는 단계.
단계(680): 사용자의 실시간 머리 이미지가 미리 결정된 마킹된 위치에 도달하는지 여부를 결정하고; 만약 그렇다면, 단계(690)로 진행하고; 만약 그렇지 않다면 그 다음 기간에서 처리를 수행하기 위해 단계(610)로 진행하는 단계.
단계(690): 사용자의 실시간 머리 이미지에 얼굴 검증을 수행하고; 만약 성공적이면 사용자의 로그인을 완료하고; 만약 실패하면 사용자 로그인이 실패한다.
상기 흐름에 대응하여, 본 발명의 실시예들은 실시간 정보에 따라 디스플레이 객체를 디스플레이하는 장치를 더 제공한다. 이 장치는 소프트웨어를 통해, 하드웨어를 통해, 또는 소프트웨어와 하드웨어의 조합을 통해 달성될 수 있다. 일례로서 소프트웨어 구현예에서는, 논리적 의미에서 장치는 대응하는 컴퓨터 프로그램 명령을 단말 또는 서버의 CPU(Central Process Unit)를 통해 실행하기 위해 메모리로 판독함으로써 형성된다. 하드웨어 레벨에서, 도 7에 도시된 CPU, 메모리 및 비-휘발성 메모리에 더하여, 장치가 위치된 단말은 일반적으로 무선 신호 수신 및 전송을 위해 칩과 같은 다른 하드웨어를 더 포함하고, 장치가 위치된 서버는 일반적으로 네트워크 통신 기능을 달성하기 위해 보드와 같은 다른 하드웨어를 더 포함한다.
도 8은 본 발명의 일 실시예에서 실시간 정보에 따라 디스플레이 객체를 디스플레이하는 장치를 도시하고, 상기 디스플레이 객체를 디스플레이하는 장치는 위치 정보 취득 유닛, 시작점 및 종료점 결정 유닛, 및 슬라이딩 디스플레이 유닛을 포함하고, 상기 위치 정보 취득 유닛은 특정 기간 동안 실시간 정보에 대응하는 위치 정보를 취득하도록 구성되고; 상기 시작점 및 종료점 결정 유닛은, 이전의 기간에서 취득된 위치 정보에 따라 시작점을 결정하고, 현재 기간에서 취득된 위치 정보에 따라 종료점을 결정하도록 구성되고; 상기 슬라이딩 디스플레이 유닛은 시작점과 종료점 사이를 슬라이드하는 것으로 디스플레이 객체를 디스플레이하도록 구성된다.
선택적으로, 상기 장치는, 이전의 기간에서의 슬라이딩 디스플레이가 현재 기간이 시작될 때 종료되지 않은 경우에, 시작점을, 현재 기간이 시작될 때의 디스플레이 객체의 디스플레이 위치로 변경하고, 완료되지 않은 이전의 기간에서의 슬라이딩 디스플레이 부분을 취소하도록 구성된 시작점 변경 유닛을 더 포함한다.
선택적으로, 상기 장치는, 시작점과 종료점 사이의 거리가 미리 결정된 임계값보다 더 작으면 현재 위치에 디스플레이 객체를 디스플레이하고, 현재 시점에서의 상기 슬라이딩 디스플레이의 수행을 중단하도록 구성된 슬라이딩 취소 유닛을 더 포함한다.
일 예에서, 슬라이딩 디스플레이 유닛은 확산점 결정 모듈 및 확산점 디스플레이 모듈을 포함할 수 있으며, 이 확산점 결정 모듈은, 시작점과 종료점 사이에서 디스플레이 객체를 슬라이딩하는 트랙을 결정하고, 이 슬라이딩 트랙에서 N개의 확산 위치점을 선택하도록 구성된다. N은 자연수이다. 확산점 디스플레이 모듈은, 슬라이딩 효과를 얻기 위해 특정 단일점 디스플레이 지속 시간 동안, 디스플레이 객체를, 시작점, N개의 확산 위치점, 및 종료점에 순차적으로 디스플레이하도록 구성된다.
상기 예에서, 확산점 결정 모듈은, 시작점과 종료점 사이에서 디스플레이 객체를 슬라이딩하는 트랙을 결정하고, 이 슬라이딩 트랙에서 N개의 확산 위치점을 균일한 확산 방식, 가속 확산 방식 또는 감속 확산 방식으로 선택하도록 구성될 수 있다.
선택적으로, 디스플레이 객체는 실시간 이미지 및/또는 실시간 비디오를 포함한다.
일 구현 방식에서, 디스플레이 객체는 사용자의 실시간 머리 이미지 비디오를 포함하고; 실시간 정보에 대응하는 위치 정보는 사용자의 실시간 머리 이미지의 정면의 수평 방향의 회전 각도에 대응하는 X 축 비율 좌표, 및 사용자의 실시간 머리 이미지의 정면의 수직 방향의 회전 각도에 대응하는 Y 축 비율 좌표를 포함하고; 상기 시작점 및 종료점 결정 유닛은, 화면의 폭 및 길이에 따라, 이전의 기간의 X 축 비율 좌표 및 Y 축 비율 좌표를 화면 상의 시작점의 위치 좌표로 변환하고, 화면의 폭 및 길이에 따라, 현재 기간의 X 축 비율 좌표 및 Y 축 비율 좌표를 화면 상의 종료점의 위치 좌표로 변환하도록 구성된다.
상기 구현 방식에서, 상기 장치는, 상기 디스플레이 객체가 상기 화면 상의 미리 결정된 마킹된 위치로 이동할 때 사용자의 실시간 머리 이미지에 검증을 수행하고, 상기 검증이 성공적인 경우 사용자의 로그인을 완료하도록 구성된 검증 및 로그인 유닛을 더 포함할 수 있다.
전술한 실시예는 본 발명의 단지 바람직한 실시예일 뿐, 본 발명을 제한하는데 사용되어서는 안 된다. 본 발명의 사상 및 원리 내에서 이루어진 모든 수정, 균등한 대체 또는 개선은 본 발명의 범위 내에 있다.
일반적인 구성에서, 연산 디바이스는 하나 이상의 프로세서(CPU), 입력/출력 인터페이스, 네트워크 인터페이스 및 메모리를 포함한다.
메모리는 휘발성 메모리, 랜덤 액세스 메모리(RAM) 및/또는 비-휘발성 메모리, 예를 들어, 판독 전용 메모리(ROM) 또는 플래시 RAM과 같은 컴퓨터 판독 가능 매체를 포함할 수 있다. 메모리는 컴퓨터 판독 가능 매체의 일례이다.
컴퓨터 판독 가능한 매체는 임의의 방법 또는 기술을 통해 정보 저장을 구현할 수 있는 영구적인, 휘발성, 이동식 및 고정식 매체를 포함한다. 이 정보는 컴퓨터 판독 가능한 명령, 데이터 구조, 프로그램 모듈 또는 다른 데이터일 수 있다. 컴퓨터의 저장 매체의 예로는 상 변화 RAM(PRAM), 정적 RAM(SRAM), 동적 RAM(DRAM), 다른 유형의 RAM(Random Access Memory), ROM(Read-Only Memories), 전기적으로 소거 가능한 프로그래밍 가능한 판독 전용 메모리(EEPROM), 플래시 메모리 또는 다른 메모리 기술, CD-ROM(Compact Disk Read-Only Memories), DVD(Digital Versatile Disc) 또는 다른 광학 메모리, 카세트들, 카세트, 및 디스크 메모리 또는 다른 자기 메모리 디바이스, 또는 연산 디바이스에 액세스 가능한 정보를 저장하는데 사용될 수 있는 임의의 다른 비-전송 매체를 포함하지만 이들로 제한되지 않는다. 본 명세서의 정의에 따라, 컴퓨터 판독 가능한 매체는 변조된 데이터 신호 및 반송파와 같은 일시적인 매체를 포함하지 않는다.
"구비하는", "포함하는"이라는 용어 또는 이들의 임의의 다른 변형어는, 일련의 요소를 포함하는 프로세스, 방법, 물품 또는 디바이스가 이러한 요소들을 포함할 뿐만 아니라, 명확히 열거되지 않은 다른 요소들을 포함하거나, 또는 프로세스, 방법, 물품 또는 디바이스에 내재된 요소들을 더 포함하는, 비-배타적인 포함을 의미하도록 의도된 것이다. 추가적인 한정이 없는 경우, "~를 포함하는"이라는 문장으로 한정된 요소는 한정된 요소를 포함하는 프로세스, 방법, 물품 또는 디바이스에 추가적인 유사한 요소를 포함하는 것을 배제하지 않는다.
이 기술 분야에 통상의 지식을 가진 자라면 본 발명의 실시예가 방법, 시스템 또는 컴퓨터 프로그램 제품으로서 제공될 수 있다는 것을 이해할 수 있을 것이다. 따라서, 본 발명은 완전한 하드웨어인 실시예, 완전한 소프트웨어인 실시예, 또는 소프트웨어와 하드웨어를 조합한 실시예로서 구현될 수 있다. 또한, 본 발명은 컴퓨터 사용 가능한 프로그램 코드를 포함하는 하나 이상의 컴퓨터 사용 가능한 저장 매체(자기 디스크 메모리, CD-ROM, 광학 메모리 등을 포함하지만 이들로 한정되지 않음) 상에 구현된 컴퓨터 프로그램 제품의 형태로 구현될 수 있다.

Claims (16)

  1. 실시간 정보에 따라 디스플레이 객체를 디스플레이하는 방법으로서,
    특정 기간 동안 실시간 정보에 대응하는 위치 정보를 취득하는 단계;
    이전의 기간에서 취득된 위치 정보에 따라 시작점을 결정하고, 현재 기간에서 취득된 위치 정보에 따라 종료점을 결정하는 단계; 및
    상기 시작점과 상기 종료점 사이를 슬라이딩하는 것으로 디스플레이 객체를 디스플레이하는 단계를 포함하는, 디스플레이 객체를 디스플레이하는 방법.
  2. 제1항에 있어서, 상기 이전의 기간에서의 슬라이딩 디스플레이가 상기 현재 기간이 시작될 때 종료되지 않았다면, 상기 시작점을, 상기 현재 기간이 시작될 때의 상기 디스플레이 객체의 디스플레이 위치로 변경하고, 완료되지 않은 상기 이전의 기간에서의 상기 슬라이딩 디스플레이 부분을 취소하는 단계를 더 포함하는, 디스플레이 객체를 디스플레이하는 방법.
  3. 제1항 또는 제2항에 있어서, 상기 시작점과 상기 종료점 사이의 거리가 미리 결정된 임계값보다 더 작은 경우, 상기 현재 위치에 상기 디스플레이 객체를 디스플레이하고, 상기 현재 시점에서의 상기 슬라이딩 디스플레이의 수행을 중단하는 단계를 더 포함하는, 디스플레이 객체를 디스플레이하는 방법.
  4. 제1항에 있어서, 상기 시작점과 상기 종료점 사이를 슬라이딩하는 것으로 디스플레이 객체를 디스플레이하는 단계는,
    상기 시작점과 상기 종료점 사이에서 상기 디스플레이 객체를 슬라이딩하는 트랙을 결정하고, 상기 슬라이딩 트랙에서 N개(N은 자연수임)의 확산 위치점을 선택하는 단계; 및
    슬라이딩 효과를 얻기 위해 단일점 디스플레이 지속 시간 동안, 상기 디스플레이 객체를, 상기 시작점, 상기 N개의 확산 위치점, 및 상기 종료점에 순차적으로 디스플레이하는 단계를 포함하는, 디스플레이 객체를 디스플레이하는 방법.
  5. 제4항에 있어서, 상기 슬라이딩 트랙에서 N개의 확산 위치점을 선택하는 단계는, 상기 슬라이딩 트랙에서 N개의 확산 위치점을 균일한 확산 방식, 가속 확산 방식 또는 감속 확산 방식으로 선택하는 단계를 포함하는, 디스플레이 객체를 디스플레이하는 방법.
  6. 제1항에 있어서, 상기 디스플레이 객체는 실시간 이미지 및/또는 실시간 비디오를 포함하는, 디스플레이 객체를 디스플레이하는 방법.
  7. 제1항에 있어서,
    상기 디스플레이 객체는 사용자의 실시간 머리 이미지 비디오를 포함하고;
    상기 실시간 정보에 대응되는 위치 정보는 사용자의 실시간 머리 이미지의 정면의 수평 방향의 회전 각도에 대응하는 X 축 비율 좌표, 및 상기 사용자의 실시간 머리 이미지의 정면의 수직 방향의 회전 각도에 대응하는 Y 축 비율 좌표를 포함하며;
    상기 이전의 기간에서 취득된 위치 정보에 따라 시작점을 결정하고, 상기 현재 기간에서 취득된 위치 정보에 따라 종료점을 결정하는 단계는, 화면의 폭과 길이에 따라 상기 이전의 기간의 상기 X 축 비율 좌표 및 상기 Y 축 비율 좌표를 상기 화면 상의 상기 시작점의 위치 좌표들로 변환하고, 상기 화면의 폭과 길이에 따라 상기 현재 기간의 상기 X 축 비율 좌표 및 상기 Y 축 비율 좌표를 상기 화면 상의 상기 종료점의 위치 좌표들로 변환하는 단계를 포함하는, 디스플레이 객체를 디스플레이하는 방법.
  8. 제7항에 있어서, 상기 디스플레이 객체가 상기 화면 상의 미리 결정된 마킹된 위치로 이동하면 상기 사용자의 실시간 머리 이미지에 검증을 수행하고, 상기 검증이 성공적이면 상기 사용자의 로그인을 완료하는 단계를 더 포함하는, 디스플레이 객체를 디스플레이하는 방법.
  9. 실시간 정보에 따라 디스플레이 객체를 디스플레이하는 장치로서,
    특정 기간 동안 실시간 정보에 대응하는 위치 정보를 취득하도록 구성된 위치 정보 취득 유닛;
    이전의 기간에서 취득된 위치 정보에 따라 시작점을 결정하고, 현재 기간에서 취득된 위치 정보에 따라 종료점을 결정하도록 구성된 시작점 및 종료점 결정 유닛; 및
    상기 시작점과 상기 종료점 사이를 슬라이드하는 것으로 디스플레이 객체를 디스플레이하도록 구성된 슬라이딩 디스플레이 유닛을 포함하는, 디스플레이 객체를 디스플레이하는 장치.
  10. 제9항에 있어서, 상기 이전의 기간에서의 슬라이딩 디스플레이가 상기 현재 기간이 시작될 때 종료되지 않은 경우, 상기 시작점을, 상기 현재 기간이 시작될 때의 상기 디스플레이 객체의 디스플레이 위치로 변경하고, 완료되지 않은 상기 이전의 기간에서의 슬라이딩 디스플레이 부분을 취소하도록 구성된 시작점 변경 유닛을 더 포함하는, 디스플레이 객체를 디스플레이하는 장치.
  11. 제9항 또는 제10항에 있어서, 상기 시작점과 상기 종료점 사이의 거리가 미리 결정된 임계값보다 더 작은 경우 상기 현재 위치에 상기 디스플레이 객체를 디스플레이하고, 상기 현재 기간에서의 상기 슬라이딩 디스플레이의 수행을 중단하도록 구성된 슬라이딩 취소 유닛을 더 포함하는, 디스플레이 객체를 디스플레이하는 장치.
  12. 제9항에 있어서, 상기 슬라이딩 디스플레이 유닛은,
    상기 시작점과 상기 종료점 사이에서 상기 디스플레이 객체를 슬라이딩하는 트랙을 결정하고, 상기 슬라이딩 트랙에서 N개(N은 자연수임)의 확산 위치점을 선택하도록 구성된 확산점 결정 모듈; 및
    슬라이딩 효과를 얻기 위해 단일점 디스플레이 지속 시간 동안, 상기 디스플레이 객체를, 상기 시작점, 상기 N개의 확산점, 및 상기 종료점에 순차적으로 디스플레이하도록 구성된 확산점 디스플레이 모듈을 포함하는, 디스플레이 객체를 디스플레이하는 장치.
  13. 제12항에 있어서, 상기 확산점 결정 모듈은, 상기 시작점과 상기 종료점 사이에서 상기 디스플레이 객체를 슬라이딩하는 트랙을 결정하고, 상기 슬라이딩 트랙에서 N개의 확산 위치점을 균일한 확산 방식, 가속 확산 방식 또는 감속 확산 방식으로 선택하도록 구성된, 디스플레이 객체를 디스플레이하는 장치.
  14. 제9항에 있어서, 상기 디스플레이 객체는 실시간 오디오 및/또는 실시간 비디오를 포함하는, 디스플레이 객체를 디스플레이하는 장치.
  15. 제9항에 있어서,
    상기 디스플레이 객체는 사용자의 실시간 머리 이미지 비디오를 포함하고;
    상기 실시간 정보에 대응되는 위치 정보는 사용자의 실시간 머리 이미지의 정면의 수평 방향의 회전 각도에 대응하는 X 축 비율 좌표, 및 상기 사용자의 실시간 머리 이미지의 정면의 수직 방향의 회전 각도에 대응하는 Y 축 비율 좌표를 포함하며;
    상기 시작점 및 상기 종료점 결정 유닛은, 화면의 폭 및 길이에 따라, 상기 이전의 기간의 X 축 비율 좌표 및 Y 축 비율 좌표를 상기 화면 상의 상기 시작점의 위치 좌표들로 변환하고, 상기 화면의 폭 및 길이에 따라, 상기 현재 기간의 X 축 비율 좌표 및 Y 축 비율 좌표를 상기 화면 상의 상기 종료점의 좌표 위치들로 변환하도록 구성된, 디스플레이 객체를 디스플레이하는 장치.
  16. 제15항에 있어서, 상기 디스플레이 객체가 상기 화면 상의 미리 결정된 마킹된 위치로 이동할 때 상기 사용자의 실시간 머리 이미지에 검증을 수행하고, 상기 검증이 성공적이면 상기 사용자의 로그인을 완료하도록 구성된 검증 및 로그인 유닛을 더 포함하는, 디스플레이 객체를 디스플레이하는 장치.
KR1020187018757A 2015-12-04 2016-11-24 실시간 정보에 따라 디스플레이 객체를 디스플레이하는 방법 및 장치 KR102148583B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510884339.7A CN106843709B (zh) 2015-12-04 2015-12-04 根据实时信息显示展现对象的方法和装置
CN201510884339.7 2015-12-04
PCT/CN2016/107014 WO2017092597A1 (zh) 2015-12-04 2016-11-24 根据实时信息显示展现对象的方法和装置

Publications (2)

Publication Number Publication Date
KR20180088450A true KR20180088450A (ko) 2018-08-03
KR102148583B1 KR102148583B1 (ko) 2020-08-27

Family

ID=58796282

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187018757A KR102148583B1 (ko) 2015-12-04 2016-11-24 실시간 정보에 따라 디스플레이 객체를 디스플레이하는 방법 및 장치

Country Status (10)

Country Link
US (1) US10551912B2 (ko)
EP (1) EP3367228B1 (ko)
JP (1) JP6640356B2 (ko)
KR (1) KR102148583B1 (ko)
CN (1) CN106843709B (ko)
AU (2) AU2016363434B2 (ko)
MY (1) MY181211A (ko)
PH (1) PH12018501175A1 (ko)
SG (1) SG11201804351PA (ko)
WO (1) WO2017092597A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107506025A (zh) * 2017-07-25 2017-12-22 北京小鸟看看科技有限公司 一种头戴显示设备的信息显示方法、装置及头戴显示设备
CN107952238B (zh) * 2017-11-23 2020-11-17 香港乐蜜有限公司 视频生成方法、装置和电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134278A (ja) * 2009-12-25 2011-07-07 Toshiba Corp 情報処理装置およびポインティング制御方法
US20120051596A1 (en) * 2010-08-31 2012-03-01 Activate Systems, Inc. Methods and apparatus for improved motioin capture
JP2015173806A (ja) * 2014-03-14 2015-10-05 株式会社コロプラ ゲームオブジェクト制御プログラム及びゲームオブジェクト制御方法

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69130549T2 (de) * 1990-06-11 1999-05-27 Hitachi Ltd Vorrichtung zur Erzeugung eines Objektbewegungsweges
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
FI117488B (fi) 2001-05-16 2006-10-31 Myorigo Sarl Informaation selaus näytöllä
US7173623B2 (en) * 2003-05-09 2007-02-06 Microsoft Corporation System supporting animation of graphical display elements through animation object instances
CN1961339A (zh) * 2004-06-08 2007-05-09 斯瑞毕国际有限公司 显示图形纹理
CN101536494B (zh) 2005-02-08 2017-04-26 奥布隆工业有限公司 用于基于姿势的控制系统的系统和方法
JP4989052B2 (ja) * 2005-07-28 2012-08-01 任天堂株式会社 入力データ処理プログラムおよび情報処理装置
WO2007022306A2 (en) 2005-08-17 2007-02-22 Hillcrest Laboratories, Inc. Hover-buttons for user interfaces
US8411913B2 (en) 2008-06-17 2013-04-02 The Hong Kong Polytechnic University Partial fingerprint recognition
JP5382007B2 (ja) 2010-02-22 2014-01-08 株式会社デンソー 移動軌跡表示装置
WO2011106798A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
KR101005719B1 (ko) 2010-05-18 2011-01-06 주식회사 슈프리마 정합 및 합성의 시작과 종료를 자동으로 인식하는 회전 지문 획득 장치 및 방법
JP2012008893A (ja) * 2010-06-25 2012-01-12 Hakko Denki Kk 作画支援システム、および作画支援システムにおける支援装置
BR112013001537B8 (pt) 2010-07-19 2021-08-24 Risst Ltd sensores de impressão digital e sistemas incorporando sensores de impressão digital
US9316827B2 (en) 2010-09-20 2016-04-19 Kopin Corporation LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking
JP5418532B2 (ja) * 2011-03-29 2014-02-19 アイシン・エィ・ダブリュ株式会社 表示装置および表示装置の制御方法並びにプログラム
US8643680B2 (en) * 2011-04-08 2014-02-04 Amazon Technologies, Inc. Gaze-based content display
KR101788006B1 (ko) * 2011-07-18 2017-10-19 엘지전자 주식회사 원격제어장치 및 원격제어장치로 제어 가능한 영상표시장치
US9082235B2 (en) * 2011-07-12 2015-07-14 Microsoft Technology Licensing, Llc Using facial data for device authentication or subject identification
US9305361B2 (en) * 2011-09-12 2016-04-05 Qualcomm Incorporated Resolving homography decomposition ambiguity based on orientation sensors
US8261090B1 (en) * 2011-09-28 2012-09-04 Google Inc. Login to a computing device based on facial recognition
US8743055B2 (en) * 2011-10-13 2014-06-03 Panasonic Corporation Hybrid pointing system and method
US8666719B2 (en) * 2011-10-25 2014-03-04 Livermore Software Technology Corp. Methods and systems for numerically simulating muscle movements along bones and around joints
CN103376994A (zh) * 2012-04-11 2013-10-30 宏碁股份有限公司 电子装置及控制电子装置的方法
US9417660B2 (en) 2012-04-25 2016-08-16 Kopin Corporation Collapsible head set computer
CN103425403B (zh) 2012-05-14 2017-02-15 华为技术有限公司 一种屏幕间显示内容的穿越方法、装置及系统
CN103513811B (zh) * 2012-06-29 2017-02-08 北京汇冠新技术股份有限公司 一种触摸轨迹跟踪方法
CN102799376A (zh) * 2012-07-11 2012-11-28 广东欧珀移动通信有限公司 一种触控设备的快捷功能设定方法
CN102830797B (zh) * 2012-07-26 2015-11-25 深圳先进技术研究院 一种基于视线判断的人机交互方法及系统
JP2014092940A (ja) * 2012-11-02 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
US9569992B2 (en) * 2012-11-15 2017-02-14 Semiconductor Energy Laboratory Co., Ltd. Method for driving information processing device, program, and information processing device
US20150309568A1 (en) * 2012-11-27 2015-10-29 Kyocera Corporation Electronic apparatus and eye-gaze input method
US9058519B2 (en) 2012-12-17 2015-06-16 Qualcomm Incorporated System and method for passive live person verification using real-time eye reflection
US9134793B2 (en) 2013-01-04 2015-09-15 Kopin Corporation Headset computer with head tracking input used for inertial control
CN103941988A (zh) * 2013-01-20 2014-07-23 上海博路信息技术有限公司 一种手势解锁的方法
US9208583B2 (en) * 2013-02-13 2015-12-08 Blackberry Limited Device with enhanced augmented reality functionality
KR102214503B1 (ko) 2013-03-26 2021-02-09 삼성전자주식회사 지문 인식 방법 및 그 전자 장치
KR102121592B1 (ko) 2013-05-31 2020-06-10 삼성전자주식회사 시력 보호 방법 및 장치
JP2015012304A (ja) * 2013-06-26 2015-01-19 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US9857876B2 (en) * 2013-07-22 2018-01-02 Leap Motion, Inc. Non-linear motion capture using Frenet-Serret frames
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
JP5924555B2 (ja) * 2014-01-06 2016-05-25 コニカミノルタ株式会社 オブジェクトの停止位置制御方法、操作表示装置およびプログラム
JP2015162071A (ja) * 2014-02-27 2015-09-07 株式会社ニコン 電子機器
CN104142807A (zh) * 2014-08-02 2014-11-12 合一网络技术(北京)有限公司 基于安卓控件利用OpenGL绘制图像的方法和系统
WO2016076912A1 (en) * 2014-11-13 2016-05-19 Intel Corporation Spoofing detection in image biometrics
CN104777984A (zh) * 2015-04-30 2015-07-15 青岛海信电器股份有限公司 一种触摸轨迹跟踪的方法、装置及触屏设备
CN104915001B (zh) * 2015-06-03 2019-03-15 北京嘿哈科技有限公司 一种屏幕操控方法及装置
CN104915099A (zh) * 2015-06-16 2015-09-16 努比亚技术有限公司 一种图标整理方法和终端设备
CN104951773B (zh) * 2015-07-12 2018-10-02 上海微桥电子科技有限公司 一种实时人脸识别监视系统
CN105100934A (zh) * 2015-08-29 2015-11-25 天脉聚源(北京)科技有限公司 显示参与互动的用户信息的方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134278A (ja) * 2009-12-25 2011-07-07 Toshiba Corp 情報処理装置およびポインティング制御方法
US20120051596A1 (en) * 2010-08-31 2012-03-01 Activate Systems, Inc. Methods and apparatus for improved motioin capture
JP2015173806A (ja) * 2014-03-14 2015-10-05 株式会社コロプラ ゲームオブジェクト制御プログラム及びゲームオブジェクト制御方法

Also Published As

Publication number Publication date
MY181211A (en) 2020-12-21
AU2016363434A1 (en) 2018-06-21
EP3367228A1 (en) 2018-08-29
JP2018536243A (ja) 2018-12-06
US10551912B2 (en) 2020-02-04
EP3367228B1 (en) 2022-02-09
US20180275750A1 (en) 2018-09-27
WO2017092597A1 (zh) 2017-06-08
AU2019101558A4 (en) 2020-01-23
AU2016363434B2 (en) 2019-10-31
KR102148583B1 (ko) 2020-08-27
SG11201804351PA (en) 2018-06-28
PH12018501175A1 (en) 2019-01-21
CN106843709B (zh) 2020-04-14
JP6640356B2 (ja) 2020-02-05
EP3367228A4 (en) 2019-06-26
CN106843709A (zh) 2017-06-13

Similar Documents

Publication Publication Date Title
CN110495166B (zh) 一种计算机实现的方法、计算装置以及可读存储介质
US10192310B2 (en) Operating a computing device by detecting rounded objects in an image
US9697613B2 (en) Launch monitor
TWI543019B (zh) 自動化裝置顯示器的定向偵測技術
CN107404615B (zh) 图像录制方法及电子设备
CN107765986B (zh) 游戏系统的信息处理方法和装置
US10154228B1 (en) Smoothing video panning
CN105657238B (zh) 跟踪对焦方法及装置
CN108553895B (zh) 用户界面元素与三维空间模型关联的方法和装置
WO2020078161A1 (zh) 一种弹幕调节的方法、装置及计算机可读存储介质
CN113282168A (zh) 头戴式显示设备的信息输入方法、装置及头戴式显示设备
CN110657799B (zh) 一种空间实时定位方法、计算机装置及计算机可读存储介质
US11200414B2 (en) Process for capturing content from a document
AU2019101558A4 (en) Method and apparatus for displaying display object according to real-time information
CN112561915A (zh) 图像处理方法、装置、图像采集装置及存储介质
CN113282167B (zh) 头戴式显示设备的交互方法、装置及头戴式显示设备
KR102389916B1 (ko) 인체 인식 방법, 장치, 기기 및 컴퓨터 판독 가능 저장 매체
CN109669602A (zh) 虚拟现实的数据交互方法、装置及系统
CN105242911B (zh) 一种游戏场景中物体的控制方法、装置及终端
CN107315313B (zh) 投影设备的自动聚焦方法及装置
CN104978130B (zh) 一种信息处理的方法及智能终端
CN115756181A (zh) 一种控制方法、装置、设备和介质
CN116983612A (zh) 一种基于陀螺仪的游戏控制方法、装置、介质及设备
CN112862657A (zh) 图像处理方法、装置、电子设备及计算机存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant