KR20150115617A - 스마트 안경 기반 프람프팅 방법 및 장치 - Google Patents

스마트 안경 기반 프람프팅 방법 및 장치 Download PDF

Info

Publication number
KR20150115617A
KR20150115617A KR1020140194551A KR20140194551A KR20150115617A KR 20150115617 A KR20150115617 A KR 20150115617A KR 1020140194551 A KR1020140194551 A KR 1020140194551A KR 20140194551 A KR20140194551 A KR 20140194551A KR 20150115617 A KR20150115617 A KR 20150115617A
Authority
KR
South Korea
Prior art keywords
information
current situation
current
situation
user
Prior art date
Application number
KR1020140194551A
Other languages
English (en)
Other versions
KR101811487B1 (ko
Inventor
에루이 딩
종귄 우
시용 쉔
Original Assignee
바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 filed Critical 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Publication of KR20150115617A publication Critical patent/KR20150115617A/ko
Application granted granted Critical
Publication of KR101811487B1 publication Critical patent/KR101811487B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9038Presentation of query results
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/90335Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Eyeglasses (AREA)

Abstract

본 발명은 스마트 안경에 기반한 프람프팅 방법 및 장치를 제공한다. 이 방법은 현 상황 정보(current scenario information)를 취득하는 단계; 사전구성된 정보 베이스에 따라서 상기 현 상황 정보에 대응하는 프람프트 정보(prompt informtion)를 결정하는 단계로서, 상기 사전구성된 정보 베이스는 적어도 하나의 종류의 상황 정보 및 각 종류의 상황 정보에 대응하는 프람프트 정보를 저장하는, 상기 프람프트 정보를 결정하는 단계; 및 상기 스마트 안경에 의해서 상기 프람프트 정보를 표시하는 단계를 포함한다. 이 방법은 사용자에 의한 현 상황에 대응하는 프람프트 정보의 취득을 용이하게 할 수 있다.

Description

스마트 안경 기반 프람프팅 방법 및 장치{Method and apparatus for prompting based on smart glasses}
본 발명은 데이터 처리 기술 분야에 관한 것이며, 특히 스마트 안경에 기반한 프람프팅 방법 및 장치에 관한 것이다.
사람들은 수많은 경우들에 상황 정보에 따라서 프람프트 정보(prompt information)를 취득할 필요가 있다. 예를 들어서, PPT를 설명하거나 영화를 보면서 특정 유명인에 대하여 알고자 할 때, 그 PPT의 현재 페이즈 또는 그 영화의 현재 프레임과 같은 해당 상황에 대한 특정한 추가적인 해석을 수행할 필요가 때로 있다.
이러한 종류의 프람프트 정보를 취득하는 것은 보통은 불편하다. 예를 들어서, 사람들은 PPT를 설명할 때에 그들 자신의 컴퓨터 스크린을 매우 자주 둘러볼 필요가 있거나 예를 들어서 영화를 볼 때에 관련 정보를 취득할 수 없다.
본 발명은 적어도 어느 정도로 관련된 기술 분야에서 기술적 문제들 중 하나를 해결하는 것을 의도한다.
이를 위해서, 본 발명의 일 목적은 스마트 안경에 기반한 프람프팅 방법으로서 사용자에 의해서 상황에 대응하는 프람프트 정보의 취득을 용이하게 하는 방법을 제공하는 것이다.
본 발명의 다른 목적은 일 타입의 스마트 안경을 제공하는 것이다.
상술한 목적을 달성하기 위해서, 본 발명의 제 1 측면으로부터의 실시예에 의해서 제안된 스마트 안경 기반 프람프팅(prompting) 방법은, 현 상황 정보(current scenario information)를 취득하는 단계; 사전구성된 정보 베이스에 따라서 상기 현 상황 정보에 대응하는 프람프트 정보(prompt informtion)를 결정하는 단계로서, 상기 사전구성된 정보 베이스는 적어도 하나의 종류의 상황 정보 및 각 종류의 상황 정보에 대응하는 프람프트 정보를 저장하는, 상기 프람프트 정보를 결정하는 단계; 및 상기 스마트 안경에 의해서 상기 프람프트 정보를 표시하는 단계를 포함한다.
본 발명의 제 1 측면으로부터의 실시예에 의해서 제안된 스마트 안경 기반 프람프팅 방법은, 현 상황 정보에 대응하는 프람프트 정보를 취득하고 스마트 안경에 의해서 이를 표시함으로써 현 상황에 대응하는 프람프트 정보를 보는데 있어서 사용자에게 편리함을 주고 사용자 경험수준을 향상시킬 수 있다.
상술한 목적을 달성하기 위해서, 본 발명의 제 2 측면으로부터의 실시예에 의해서 제안된 스마트 안경 기반 프람프팅 장치는, 현 상황 정보(current scenario information)를 취득하기 위한 취득 모듈; 사전구성된 정보 베이스에 따라서 상기 현 상황 정보에 대응하는 프람프트 정보(prompt informtion)를 결정하기 위한 결정 모듈로서, 상기 사전구성된 정보 베이스는 적어도 하나의 종류의 상황 정보 및 각 종류의 상황 정보에 대응하는 프람프트 정보를 저장하는, 상기 결정 모듈; 및 상기 스마트 안경에 의해서 상기 프람프트 정보를 표시하기 위한 표시 모듈을 포함한다.
본 발명의 제 2 측면으로부터의 실시예에 의해서 제안된 스마트 안경 기반 프람프팅 장치는, 현 상황 정보에 대응하는 프람프트 정보를 취득하고 스마트 안경에 의해서 이를 표시함으로써 현 상황에 대응하는 프람프트 정보를 보는데 있어서 사용자에게 편리함을 주고 사용자 경험수준을 향상시킬 수 있다.
본 발명의 제 3 측면으로부터의 실시예에 의해서 제안된 스마트 안경은 하우징, 프로세서, 메모리, 회로 보드 및 전력 공급 회로를 포함하며; 회로 보드는 하우징에 의해서 둘러싸인 공간 내측에 장착되며; 프로세서 및 메모리가 회로 보드 상에 배치되며; 전력 공급 회로는 클라이언트 디바이스의 다양한 회로들 또는 디바이스들에 전력을 공급하기 위해서 사용되고; 메모리는 실행가능한 프로그램 코드들을 저장하기 위해서 사용되며; 프로세서는 다음의 단계들을 실행하기 위해서 메모리 내에서 저장된 실행가능한 프로그램 코드들을 판독함으로써 실행가능한 프로그램 코드들에 대응하는 프로그램들을 동작시킨다: 현 상황 정보(current scenario information)를 취득하는 단계; 사전구성된 정보 베이스에 따라서 상기 현 상황 정보에 대응하는 프람프트 정보(prompt informtion)를 결정하는 단계로서, 상기 사전구성된 정보 베이스는 적어도 하나의 종류의 상황 정보 및 각 종류의 상황 정보에 대응하는 프람프트 정보를 저장하는, 상기 프람프트 정보를 결정하는 단계; 및 상기 스마트 안경에 의해서 상기 프람프트 정보를 표시하는 단계.
본 발명의 제 3 측면으로부터의 실시예에 의해서 제안된 스마트 안경은, 현 상황 정보에 대응하는 프람프트 정보를 취득하고 스마트 안경에 의해서 이를 표시함으로써 현 상황에 대응하는 프람프트 정보를 보는데 있어서 사용자에게 편리함을 주고 사용자 경험수준을 향상시킬 수 있다.
본 발명의 추가 측면들 및 장점들이 이하의 설명에서 부분적으로 제공될 것이며, 이하의 설명으로부터 부분적으로 명백해지거나 본 발명의 원리에 의해서 이해될 것이다.
본 발명의 상술하고/하거나 추가된 측면들 및 장점들이 첨부 도면들과 함께 실시예들의 다음의 설명으로부터 명백해지고 용이하게 이해될 것이다.
도 1은 본 발명의 일 실시예에 따라서 제안된 스마트 안경에 기초한 프람프팅 방법의 개략적 흐름도이다.
도 2는 본 발명의 다른 실시예에 따라서 제안된 스마트 안경에 기초한 프람프팅 방법의 개략적 흐름도이다.
도 3은 본 발명의 다른 실시예에 따라서 제안된 스마트 안경에 기초한 프람프팅 장치의 구조적 개략도이다.
도 4는 본 발명의 다른 실시예에 따라서 제안된 스마트 안경에 기초한 프람프팅 장치의 구조적 개략도이다.
본 발명의 실시예들이 이하에서 상세하게 기술될 것이며, 실시예들의 실례들은 첨부 도면들에서 도시되며, 이 첨부 도면들 전반에 걸쳐서 동일하거나 유사한 참조 부호들은 동일하거나 유사한 요소 또는 동일하거나 유사한 기능들을 갖는 요소들을 나타낸다. 첨부 도면들을 참조하여서 이하에서 기술되는 실시예들은 본 발명을 한정하고자 하는 것으로 간주되기 보다는 예시적이며 단지 본 바명을 설명하기 위해서 사용된 것일 뿐이다. 이와 반대로, 본 발명의 실시예들은 첨부된 청구항들의 사상 및 원리의 범위에 해당하는 모든 변경사항들, 수정사항들 및 균등사항들을 포함한다.
도 1은 본 발명의 일 실시예에 따라서 제안된 스마트 안경에 기초한 프람프팅 방법의 개략적 흐름도이며, 이 방법은 다음의 단계를 포함한다:
S11: 스마트 안경이 현 상황 정보(current scenario information)를 취득한다.
스마트 안경은 머리에 착용가능한 현재 출현 중인 스마트 디바이스이다. 스마트 안경은 스마트 폰과 같이 독립적인 운영 체제를 가지며, 이 운영 체제는 소프트웨어 및 게임들과 같은 프로그램과 함께 사용자에 의해서 설치되고 일정 추가, 지도 네비게이션, 친구와의 대화, 사진 캡처 및 비디오 캡처, 친구와의 비디오 채팅 등과 같은 기능들을 구현하도록 동작 및 제어될 수 있으며 이동 통신 네트워크를 통해서 무선 네트워크 액세스를 구현할 수 있다.
현 상황 정보가 이미지들에 의해서 또는 디바이스 상호접속에 의해서 취득될 수 있다.
현 상황의 이미지를 취득하기 위해서 현 상황을 캡처하는 이미징 수단에 의해서, 그리고 디바이스 상호접속 수단에 의해서, 현 상황이 위치하는 디바이스가 현 상황 정보를 스마트 안경에 전송한다.
또한, 현 상황을 캡처하는 것은 연속적인 캡처일 수 있거나 이벤트 트리거 인스트럭션을 수신한 후에 캡처하는 것일 수 있다. 예를 들어서, 연속적인 캡처는, 현 상황의 이미지를 취득하도록, PPT가 실행되거나 영화가 상영되기 시작할 때에 개시된다. 이와 달리, 현 상황이 캡처될 예정이면, 이벤트 트리거 인스트럭션, 예를 들어서 터치 인스트럭션 또는 음성 제어 인스트럭션이 사용되어서 현 상황을 캡처하는 것을 개시한다. 트리거 인스트럭션 또는 음성 제어 인스트럭션은 사용자에 의해서 전송될 수 있으며; 또한, 사용자는 또한 현 상황을 캡처하는 것을 개시하도록, 다른 디바이스를 통해서 트리거 인스트럭션을 스마트 안경에 전송할 수도 있다.
디바이스 상호접속에 의해서, 예를 들어서, 현재 컴퓨터 등에 의해서 재생 중인 PPT의 페이지 번호가 스마트 디바이스에 전송될 수 있다.
S12: 스마트 안경이 사전구성된 정보 베이스에 따라서 현 상황 정보에 대응하는 프람프트 정보를 결정하며, 이 정보 베이스는 적어도 하나의 종류의 상황 정보 및 각 종류의 상황 정보에 대응하는 프람프트 정보를 저장하며;
이 정보 베이스는 상황 정보와 프람프트 정보 간의 연관 관계를 기록하며, 이 연관 관계를 통해서 현 상황 정보에 대응하는 프람프트 정보를 찾을 수 있다.
현 상황 정보는 예를 들어서, 현재 재생되는 PPT 페이지의 이미지이며, 정보 베이스는 이 PPT 페이지의 이미지 및 이에 대응하는 프람프트 정보를 저장하며, 이 프람프트 정보는 예를 들어서, 현 PPT 페이지에서 확장될 필요가 있는 컨텐츠를 표시한다. 이와 달리, 현 상황 정보는 현재 재생 중인 비디오 프레임이며, 이 비디오 프레임은 특정 유명인 또는 몇몇 유명인의 얼굴 또는 얼굴들을 포함하며, 정보 베이스는 유명인의 얼굴 및 이 유명인과 관련된 정보, 예를 들어서, 이름 및 경력과 같은 정보 간의 상관사항을 저장하며, 이 경우에 얼굴 인식 기법이 현 비디오 프레임으로부터 얼굴을 취득하는데 사용될 수 있다.
S13: 스마트 안경이 스마트 안경에 의해서 프람프트 정보를 표시한다.
예를 들어서, PPT를 설명할 때에, 확장될 필요가 있으며 프로젝터 상에서 표시되지 않은 컨텐츠가 표시되거나, 유명인을 보았을 경우에는, 이 유명인과 관련된 데이터가 표시될 수 있다.
이 실시예는 현 상황 정보에 대응하는 프람프트 정보를 취득하고 스마트 안경에 의해서 이를 표시함으로써 현 상황에 대응하는 프람프트 정보를 보는데 있어서 사용자에게 편리함을 주고 사용자 경험수준을 향상시킬 수 있다.
도 2는 본 발명의 다른 실시예에 따라서 제안된 스마트 안경에 기초한 프람프팅 방법의 개략적 흐름도이며, 이 방법은 다음의 단계를 포함한다:
S21: 정보 베이스가 확립된다.
정보 베이스는 적어도 하나의 종류의 상황 정보 및 각 종류의 상황 정보에 대응하는 프람프트 정보를 저장한다. 정보 베이스를 확립함으로써, 상황 정보 및 프람프트 정보가 서로 연관될 수 있다.
이 상황 정보 및 이에 대응하는 프람프트 정보는 사용자 자신에 의해서 설정된 정보이거나 공중 자원으로부터 취득된 정보일 수 있다.
예를 들어서, PPT를 설명할 때에, 사용자는 PPT 화상의 각 페이지 및 이에 대응하는 자신에 의해서 설정된 프람프트 정보 또는 PPT의 설정된 페이지 번호 및 이에 대응하는 프람프트 정보를 정보 베이스에 미리 입력하거나; 또는
사용자는 상황 정보 및 이에 대응하는 공중 자원으로부터 획득된 프람프트 정보를 정보 베이스에 입력할 수 있다. 예를 들어서, 유명인들과 관련하여서, 이러한 유명인들의 얼굴들 및 이에 대응하는 유명인 정보가 공중 자원들로부터 획득될 수 있다.
S22: 현 상황 정보가 획득된다.
이 현 상황 정보는 이미징에 의해서 또는 디바이스 상호접속에 의해서 획득될 수 있다.
현 상황의 이미지를 취득하기 위해서 현 상황을 캡처하는 이미징 수단에 의해서, 그리고 상호 디바이스 상호접속 수단에 의해서, 현 상황이 위치되는 디바이스가 현 상황 정보를 스마트 안경에 전송한다.
또한, 현 상황을 캡처하는 것은 연속적 캡처이거나 이벤트 트리거 인스트럭션을 수신한 후의 캡처일 수 있다. 예를 들어서, 연속적 캡처는 현 상황의 이미지를 획득하도록, PPT가 실행되거나 영화가 상영되기 시작할 때에 개시된다. 이와 달리, 현 상황이 캡처될 예정인 경우에, 이벤트 트리거 인스트럭션, 예를 들어 터치 인스트럭션 또는 음성 제어 인스트럭션이 사용되어서 현 상황 캡처를 개시한다. 트리거 인스트럭션 또는 음성 제어 인스트럭션은 사용자에 의해서 전송될 수 있으며; 또한, 사용자는 또한 현 상황 캐처를 개시하도록 트리거 인스트럭션을 스마트 안경으로 다른 디바이스를 통해서 전송할 수도 있다.
디바이스 상호접속에 의해서, 예를 들어서, 컴퓨터 등에 의해서 현재 재생 중인 PPT 페이지 번호가 스마트 디바이스로 전송될 수 있다.
S23: 현 상황 정보에 대응하는 프람프트 정보가 정보 베이스에서 결정된다.
현 상황 정보는 예를 들어서, 현재 재생되는 PPT 페이지의 이미지이며, 정보 베이스는 이 PPT 페이지의 이미지 및 이에 대응하는 프람프트 정보를 저장하며, 이 프람프트 정보는 예를 들어서, 현 PPT 페이지에서 확장될 필요가 있는 컨텐츠를 표시한다. 이와 달리, 현 상황 정보는 현재 재생 중인 비디오 프레임이며, 이 비디오 프레임은 특정 유명인 또는 몇몇 유명인의 얼굴 또는 얼굴들을 포함하며, 정보 베이스는 유명인의 얼굴 및 이 유명인과 관련된 정보, 예를 들어서, 이름 및 경력과 같은 정보 간의 상관사항을 저장하며, 이 경우에 얼굴 인식 기법이 현 비디오 프레임으로부터 얼굴을 취득하는데 사용될 수 있다.
S24: 프람프트 정보가 실시간으로 스마트 안경에 의해서 표시된다.
예를 들어서, PPT를 설명할 때에, 확장될 필요가 있으며 프로젝터 상에서 표시되지 않은 컨텐츠가 표시되거나, 유명인을 보았을 경우에는, 이 유명인과 관련된 데이터가 표시될 수 있다.
상술한 프람프트 정보는 스마트 안경의 우측 눈(eye) 위의 위치에서 표시될 수 있다.
또한, 프람프트 정보 표시 이전에, 오직 필요할 때에만 프람프트 정보를 표시하도록, 이 프람프트 정보가 표시될 필요가 있는지가 판정될 수도 있다. 버튼이 미리 설정될 수 있는데, 이 버튼은 모든 프람프트 정보를 인에이블(enable) 또는 디스에이블(disable)하기 위해서 사용되며, 버튼이 인에이블될 때에, 현 상황 정보 및 이에 대응하는 프람프트 정보가 취득된 후에 표시된다. 이와 달리, 프람프트 정보의 일부가 또한 인에이블 또는 디스에이블될 수 있는데, 예를 들어서, 현 상황이 설정된 조건을 만족할 때에 대응하는 프람프트 정보를 표시하고 그렇지 않으면 이를 표시하지 않는다. 설정된 조건은 사용자가 특정 상황을 응시하는 기간일 수 있으며 이에 대응하는 프람프트 정보는 이 기간이 설정된 임계치를 초과할 때에만 표시된다. 예를 들어서, 사용자의 안구가 응시하는 위치가 구성된 센서에 의해서 캡처되며, 응시 기간이 설정된 임계치를 초과할 때에, 이에 대응하는 프람프트 정보, 예를 들어 특정 유명인의 얼굴이 그 위치에서 표시된다.
또한, 프람프트 정보의 실시간 표시가 위의 실례로서 취해지고 비실시간 표시가 또한 수행될 수도 있다.
이 실시예는 정보 베이스를 확립함으로써, 정보 베이스 내에서 현 상황 정보에 대응하는 프람프트 정보를 찾고, 스마트 안경 상에 프람프트 정보를 나타냄으로써, 사용자로 하여금 다른 디바이스로부터의 프람프트 정보를 취득하지 않고 이 프람프트 정보를 바로 보게 하여서 사용자에 의한 프람프트 정보 취득을 용이하게 하며, 프람프트 정보를 실시간으로 표시함으로써, 사용자로 하여금 현 상황에 따라서 이에 대응하는 프람프트 정보를 실시간으로 취득할 수 있게 하며 이로써 사용자 경험수준을 향상시킬 수 있다. 스마트 안경 상에 표시하는 것은 디바이스 기능들을 풍부하게 할 수 있다.
도 3은 본 발명의 다른 실시예에 따라서 제안된 스마트 안경에 기초한 프람프팅 장치의 구조적 개략도이다. 이 장치(30)는 취득 모듈(31), 결정 모듈(32) 및 표시 모듈(33)을 포함한다.
취득 모듈(31)은 현 상황 정보를 취득하는데 사용되고;
현 상황 정보는 이미징에 의해서 또는 디바이스 상호접속에 의해서 취득될 수 있다.
현 상황의 이미지를 취득하기 위해서 현 상황을 캡처하는 이미징 수단에 의해서, 그리고 디바이스 상호접속 수단에 의해서, 현 상황이 위치하는 디바이스가 현 상황 정보를 스마트 안경에 전송한다.
또한, 현 상황을 캡처하는 것은 연속적인 캡처일 수 있거나 이벤트 트리거 인스트럭션을 수신한 후에 캡처하는 것일 수 있다. 예를 들어서, 연속적인 캡처는, 현 상황의 이미지를 취득하도록, PPT가 실행되거나 영화가 상영되기 시작할 때에 개시된다. 이와 달리, 현 상황이 캡처될 예정이면, 이벤트 트리거 인스트럭션, 예를 들어서 터치 인스트럭션 또는 음성 제어 인스트럭션이 사용되어서 현 상황을 캡처하는 것을 개시한다. 트리거 인스트럭션 또는 음성 제어 인스트럭션은 사용자에 의해서 전송될 수 있으며; 또한, 사용자는 또한 현 상황을 캡처하는 것을 개시하도록, 다른 디바이스를 통해서 트리거 인스트럭션을 스마트 안경에 전송할 수도 있다.
디바이스 상호접속에 의해서, 예를 들어서, 현재 컴퓨터 등에 의해서 재생 중인 PPT의 페이지 번호가 스마트 디바이스에 전송될 수 있다.
결정 모듈(32)이 사용되어서, 사전구성된 정보 베이스에 따라서 현 상황 정보에 대응하는 프람프트 정보를 결정하며, 이 정보 베이스는 적어도 하나의 종류의 상황 정보 및 각 종류의 상황 정보에 대응하는 프람프트 정보를 저장하며;
이 정보 베이스는 상황 정보와 프람프트 정보 간의 연관 관계를 기록하며, 이 연관 관계를 통해서 현 상황 정보에 대응하는 프람프트 정보를 찾을 수 있다.
현 상황 정보는 예를 들어서, 현재 재생되는 PPT 페이지의 이미지이며, 정보 베이스는 이 PPT 페이지의 이미지 및 이에 대응하는 프람프트 정보를 저장하며, 이 프람프트 정보는 예를 들어서, 현 PPT 페이지에서 확장될 필요가 있는 컨텐츠를 표시한다. 이와 달리, 현 상황 정보는 현재 재생 중인 비디오 프레임이며, 이 비디오 프레임은 특정 유명인 또는 몇몇 유명인의 얼굴 또는 얼굴들을 포함하며, 정보 베이스는 유명인의 얼굴 및 이 유명인과 관련된 정보, 예를 들어서, 이름 및 경력과 같은 정보 간의 상관사항을 저장하며, 이 경우에 얼굴 인식 기법이 현 비디오 프레임으로부터 얼굴을 취득하는데 사용될 수 있다.
표시 모듈(33)이 사용되어서 스마트 안경을 통해서 프람프트 정보를 표시한다.
예를 들어서, PPT를 설명할 때에, 확장될 필요가 있으며 프로젝터 상에서 표시되지 않은 컨텐츠가 표시되거나, 유명인을 보았을 경우에는, 이 유명인과 관련된 데이터가 표시될 수 있다.
이 실시예는 현 상황 정보에 대응하는 프람프트 정보를 취득하고 스마트 안경에 의해서 이를 표시함으로써 현 상황에 대응하는 프람프트 정보를 보는데 있어서 사용자에게 편리함을 주고 사용자 경험수준을 향상시킬 수 있다.
도 4는 본 발명의 다른 실시예에 따라서 제안된 스마트 안경에 기초한 프람프팅 장치의 구조적 개략도이다. 이 장치(30)는 정보 베이스를 확립하기 위해서 사용되는 확립 모듈(34)을 더 포함한다.
확립 모듈(34)은 다음을 위해서 특정하게 사용된다: 사용자에 의해서 설정된 상황 정보 및 이 상황 정보에 대응하는 프람프트 정보를 정보 베이스 내에 저장하는 것; 또는 공용 자원들로부터 사용자에 의해서 취득된 상황 정보 및 이 상황 정보에 대응하는 프람프트 정보를 정보 베이스 내에 저장하는 것.
정보 베이스는 적어도 하나의 종류의 상황 정보 및 각 종류의 상황 정보에 대응하는 프람프트 정보를 저장한다. 정보 베이스를 확립함으로써, 상황 정보 및 프람프트 정보가 서로 연관될 수 있다.
이 상황 정보 및 이에 대응하는 프람프트 정보는 사용자 자신에 의해서 설정된 정보이거나 공중 자원으로부터 취득된 정보일 수 있다.
예를 들어서, PPT를 설명할 때에, 사용자는 PPT 화상의 각 페이지 및 이에 대응하는 자신에 의해서 설정된 프람프트 정보 또는 PPT의 설정된 페이지 번호 및 이에 대응하는 프람프트 정보를 정보 베이스에 미리 입력하거나; 또는
사용자는 상황 정보 및 이에 대응하는 공중 자원으로부터 획득된 프람프트 정보를 정보 베이스에 입력할 수 있다. 예를 들어서, 유명인들과 관련하여서, 이러한 유명인들의 얼굴들 및 이에 대응하는 유명인 정보가 공중 자원들로부터 획득될 수 있다.
다른 실시예에서, 취득 모듈(31)은 다음을 위해서 특정하게 사용된다: 현 상황의 이미지를 취득하기 위해서 현 상황을 캡처하는 것.
다른 실시예에서, 취득 모듈은 다음을 위해서 특정하게 사용된다: 현 상황의 이미지를 취득하기 위해서 상황을 연속적으로 캡처하는 것; 또는 이벤트 트리거 인스트럭션에 따라서 현 상황으 캡처하는 것.
다른 실시예에서, 취득 모듈에 의해서 사용된 이벤트 트리거 인스트럭션은 사용자에 의해서 주어진 터치 인스트럭션 또는 음성 제어 인스트럭션; 또는 다른 디바이스를 통해서 사용자에 의해서 전송된 트리거 인스트럭션을 포함한다.
다른 실시예에서, 취득 모듈은 다음을 위해서 특정하게 사용된다: 현 상황이 위치되는 디바이스에 의해서 전송된 현 상황 정보를 수신하는 것.
현 상황 정보는 이미징에 의해서 또는 디바이스 상호접속에 의해서 취득될 수 있다.
현 상황의 이미지를 취득하기 위해서 현 상황을 캡처하는 이미징 수단에 의해서, 그리고 디바이스 상호접속 수단에 의해서, 현 상황이 위치하는 디바이스가 현 상황 정보를 스마트 안경에 전송한다.
또한, 현 상황을 캡처하는 것은 연속적인 캡처일 수 있거나 이벤트 트리거 인스트럭션을 수신한 후에 캡처하는 것일 수 있다. 예를 들어서, 연속적인 캡처는, 현 상황의 이미지를 취득하도록, PPT가 실행되거나 영화가 상영되기 시작할 때에 개시된다. 이와 달리, 현 상황이 캡처될 예정이면, 이벤트 트리거 인스트럭션, 예를 들어서 터치 인스트럭션 또는 음성 제어 인스트럭션이 사용되어서 현 상황을 캡처하는 것을 개시한다. 트리거 인스트럭션 또는 음성 제어 인스트럭션은 사용자에 의해서 전송될 수 있으며; 또한, 사용자는 또한 현 상황을 캡처하는 것을 개시하도록, 다른 디바이스를 통해서 트리거 인스트럭션을 스마트 안경에 전송할 수도 있다.
디바이스 상호접속에 의해서, 예를 들어서, 현재 컴퓨터 등에 의해서 재생 중인 PPT의 페이지 번호가 스마트 디바이스에 전송될 수 있다.
다른 실시예에서, 장치(30)는 판정 모듈(35)을 더 포함한다.
판정 모듈(35)은 현 상황 정보에 대응하는 프람프트 정보가 표시될 필요가 있는지를 판정하는데 사용되며, 이 프람프트 정보가 표시될 필요가 있다고 판정될 때에만 스마트 안경에 의해서 프람프트 정보를 표시하게 된다.
다른 실시예에서, 판정 모듈(35)은 다음을 위해서 특정하게 사용된다: 사용자가 모든 프람프트 정보를 인에이블하는 것을 선택할 경우에 이 모든 프람프트 정보가 표시될 필요가 있다고 판정하거나; 또는 사용자가 현 상황에 대응하는 프람프트 정보를 인에이블하는 것을 선택할 경우에 이 현 상황에 대응하는 프람프트 정보가 표시될 필요가 있다고 판정하는 것.
버튼이 미리 설정될 수 있는데, 이 버튼은 모든 프람프트 정보를 인에이블(enable)또는 디스에이블(disable)하기 위해서 사용되며, 버튼이 인에이블될 때에, 현 상황 정보 및 이에 대응하는 프람프트 정보가 취득된 후에 표시된다. 이와 달리, 프람프트 정보의 일부가 또한 인에이블 또는 디스에이블될 수 있는데, 예를 들어서, 현 상황이 설정된 조건을 만족할 때에 대응하는 프람프트 정보를 표시하고 그렇지 않으면 이를 표시하지 않는다. 설정된 조건은 사용자가 특정 상황을 응시하는 기간일 수 있으며 이에 대응하는 프람프트 정보는 이 기간이 설정된 임계치를 초과할 때에만 표시된다. 예를 들어서, 사용자의 안구가 응시하는 위치가 구성된 센서에 의해서 캡처되며, 응시 기간이 설정된 임계치를 초과할 때에, 이에 대응하는 프람프트 정보, 예를 들어 특정 유명인의 얼굴이 그 위치에서 표시된다.
또한, 상술한 프람프트 정보의 실시간으로 표시되고 또한 비실시간 표시될 수도 있다.
이 실시예는 정보 베이스를 확립함으로써, 정보 베이스 내에서 현 상황 정보에 대응하는 프람프트 정보를 찾고, 스마트 안경 상에 프람프트 정보를 나타냄으로써, 사용자로 하여금 다른 디바이스로부터의 프람프트 정보를 취득하지 않고 이 프람프트 정보를 바로 보게 하여서 사용자에 의한 프람프트 정보 취득을 용이하게 하며, 프람프트 정보를 실시간으로 표시함으로써, 사용자로 하여금 현 상황에 따라서 이에 대응하는 프람프트 정보를 실시간으로 취득할 수 있게 하며 이로써 사용자 경험수준을 향상시킬 수 있다. 스마트 안경 상에 표시하는 것은 디바이스 기능들을 풍부하게 할 수 있다.
본 발명의 실시예들은 클라이언트 디바이스를 더 제공하며, 이 클라이언트 디바이스는 하우징, 프로세서, 메모리, 회로 보드 및 전력 공급 회로를 포함하며; 회로 보드는 하우징에 의해서 둘러싸인 공간 내측에 장착되며; 프로세서 및 메모리가 회로 보드 상에 배치되며; 전력 공급 회로는 클라이언트 디바이스의 다양한 회로들 또는 디바이스들에 전력을 공급하기 위해서 사용되고; 메모리는 실행가능한 프로그램 코드들을 저장하기 위해서 사용되며; 프로세서는 다음의 단계들을 실행하기 위해서 메모리 내에서 저장된 실행가능한 프로그램 코드들을 판독함으로써 실행가능한 프로그램 코드들에 대응하는 프로그램들을 동작시킨다:
S11': 스마트 안경이 현 상황 정보를 취득한다.
스마트 안경은 머리에 착용가능한 현재 출현 중인 스마트 디바이스이다. 스마트 안경은 스마트 폰과 같이 독립적인 운영 체제를 가지며, 이 운영 체제는 소프트웨어 및 게임들과 같은 프로그램과 함께 사용자에 의해서 설치되고 일정 추가, 지도 네비게이션, 친구와의 대화, 사진 캡처 및 비디오 캡처, 친구와의 비디오 채팅 등과 같은 기능들을 구현하도록 동작 및 제어될 수 있으며 이동 통신 네트워크를 통해서 무선 네트워크 액세스를 구현할 수 있다.
현 상황 정보가 이미지들에 의해서 또는 디바이스 상호접속에 의해서 취득될 수 있다.
현 상황의 이미지를 취득하기 위해서 현 상황을 캡처하는 이미징 수단에 의해서, 그리고 디바이스 상호접속 수단에 의해서, 현 상황이 위치하는 디바이스가 현 상황 정보를 스마트 안경에 전송한다.
또한, 현 상황을 캡처하는 것은 연속적인 캡처일 수 있거나 이벤트 트리거 인스트럭션을 수신한 후에 캡처하는 것일 수 있다. 예를 들어서, 연속적인 캡처는, 현 상황의 이미지를 취득하도록, PPT가 실행되거나 영화가 상영되기 시작할 때에 개시된다. 이와 달리, 현 상황이 캡처될 예정이면, 이벤트 트리거 인스트럭션, 예를 들어서 터치 인스트럭션 또는 음성 제어 인스트럭션이 사용되어서 현 상황을 캡처하는 것을 개시한다. 트리거 인스트럭션 또는 음성 제어 인스트럭션은 사용자에 의해서 전송될 수 있으며; 또한, 사용자는 또한 현 상황을 캡처하는 것을 개시하도록, 다른 디바이스를 통해서 트리거 인스트럭션을 스마트 안경에 전송할 수도 있다.
디바이스 상호접속에 의해서, 예를 들어서, 현재 컴퓨터 등에 의해서 재생 중인 PPT의 페이지 번호가 스마트 디바이스에 전송될 수 있다.
S12': 스마트 안경이 사전구성된 정보 베이스에 따라서 현 상황 정보에 대응하는 프람프트 정보를 결정하며, 이 정보 베이스는 적어도 하나의 종류의 상황 정보 및 각 종류의 상황 정보에 대응하는 프람프트 정보를 저장하며;
이 정보 베이스는 상황 정보와 프람프트 정보 간의 연관 관계를 기록하며, 이 연관 관계를 통해서 현 상황 정보에 대응하는 프람프트 정보를 찾을 수 있다.
현 상황 정보는 예를 들어서, 현재 재생되는 PPT 페이지의 이미지이며, 정보 베이스는 이 PPT 페이지의 이미지 및 이에 대응하는 프람프트 정보를 저장하며, 이 프람프트 정보는 예를 들어서, 현 PPT 페이지에서 확장될 필요가 있는 컨텐츠를 표시한다. 이와 달리, 현 상황 정보는 현재 재생 중인 비디오 프레임이며, 이 비디오 프레임은 특정 유명인 또는 몇몇 유명인의 얼굴 또는 얼굴들을 포함하며, 정보 베이스는 유명인의 얼굴 및 이 유명인과 관련된 정보, 예를 들어서, 이름 및 경력과 같은 정보 간의 상관사항을 저장하며, 이 경우에 얼굴 인식 기법이 현 비디오 프레임으로부터 얼굴을 취득하는데 사용될 수 있다.
S13': 스마트 안경이 스마트 안경에 의해서 프람프트 정보를 표시한다.
예를 들어서, PPT를 설명할 때에, 확장될 필요가 있으며 프로젝터 상에서 표시되지 않은 컨텐츠가 표시되거나, 유명인을 보았을 경우에는, 이 유명인과 관련된 데이터가 표시될 수 있다.
이 실시예는 현 상황 정보에 대응하는 프람프트 정보를 취득하고 스마트 안경에 의해서 이를 표시함으로써 현 상황에 대응하는 프람프트 정보를 보는데 있어서 사용자에게 편리함을 주고 사용자 경험수준을 향상시킬 수 있다.
다른 실시예에서, 프로세서는 다음의 단계들을 실행하기 위해서 메모리 내에서 저장된 실행가능한 프로그램 코드들을 판독함으로써 실행가능한 프로그램 코드들에 대응하는 프로그램들을 동작시킨다:
S21': 정보 베이스가 확립된다.
정보 베이스는 적어도 하나의 종류의 상황 정보 및 각 종류의 상황 정보에 대응하는 프람프트 정보를 저장한다. 정보 베이스를 확립함으로써, 상황 정보 및 프람프트 정보가 서로 연관될 수 있다.
이 상황 정보 및 이에 대응하는 프람프트 정보는 사용자 자신에 의해서 설정된 정보이거나 공중 자원으로부터 취득된 정보일 수 있다.
예를 들어서, PPT를 설명할 때에, 사용자는 PPT 화상의 각 페이지 및 이에 대응하는 자신에 의해서 설정된 프람프트 정보 또는 PPT의 설정된 페이지 번호 및 이에 대응하는 프람프트 정보를 정보 베이스에 미리 입력하거나; 또는
사용자는 상황 정보 및 이에 대응하는 공중 자원으로부터 획득된 프람프트 정보를 정보 베이스에 입력할 수 있다. 예를 들어서, 유명인들과 관련하여서, 이러한 유명인들의 얼굴들 및 이에 대응하는 유명인 정보가 공중 자원들로부터 획득될 수 있다.
S22': 현 상황 정보가 획득된다.
이 현 상황 정보는 이미징에 의해서 또는 디바이스 상호접속에 의해서 획득될 수 있다.
현 상황의 이미지를 취득하기 위해서 현 상황을 캡처하는 이미징 수단에 의해서, 그리고 상호 디바이스 상호접속 수단에 의해서, 현 상황이 위치되는 디바이스가 현 상황 정보를 스마트 안경에 전송한다.
또한, 현 상황을 캡처하는 것은 연속적 캡처이거나 이벤트 트리거 인스트럭션을 수신한 후의 캡처일 수 있다. 예를 들어서, 연속적 캡처는 현 상황의 이미지를 획득하도록, PPT가 실행되거나 영화가 상영되기 시작할 때에 개시된다. 이와 달리, 현 상황이 캡처될 예정인 경우에, 이벤트 트리거 인스트럭션, 예를 들어 터치 인스트럭션 또는 음성 제어 인스트럭션이 사용되어서 현 상황 캡처를 개시한다. 트리거 인스트럭션 또는 음성 제어 인스트럭션은 사용자에 의해서 전송될 수 있으며; 또한, 사용자는 또한 현 상황 캐처를 개시하도록 트리거 인스트럭션을 스마트 안경으로 다른 디바이스를 통해서 전송할 수도 있다.
디바이스 상호접속에 의해서, 예를 들어서, 컴퓨터 등에 의해서 현재 재생 중인 PPT 페이지 번호가 스마트 디바이스로 전송될 수 있다.
S23': 현 상황 정보에 대응하는 프람프트 정보가 정보 베이스에서 결정된다.
현 상황 정보는 예를 들어서, 현재 재생되는 PPT 페이지의 이미지이며, 정보 베이스는 이 PPT 페이지의 이미지 및 이에 대응하는 프람프트 정보를 저장하며, 이 프람프트 정보는 예를 들어서, 현 PPT 페이지에서 확장될 필요가 있는 컨텐츠를 표시한다. 이와 달리, 현 상황 정보는 현재 재생 중인 비디오 프레임이며, 이 비디오 프레임은 특정 유명인 또는 몇몇 유명인의 얼굴 또는 얼굴들을 포함하며, 정보 베이스는 유명인의 얼굴 및 이 유명인과 관련된 정보, 예를 들어서, 이름 및 경력과 같은 정보 간의 상관사항을 저장하며, 이 경우에 얼굴 인식 기법이 현 비디오 프레임으로부터 얼굴을 취득하는데 사용될 수 있다.
S24': 프람프트 정보가 실시간으로 스마트 안경에 의해서 표시된다.
예를 들어서, PPT를 설명할 때에, 확장될 필요가 있으며 프로젝터 상에서 표시되지 않은 컨텐츠가 표시되거나, 유명인을 보았을 경우에는, 이 유명인과 관련된 데이터가 표시될 수 있다.
상술한 프람프트 정보는 스마트 안경의 우측 눈 위의 위치에서 표시될 수 있다.
또한, 프람프트 정보 표시 이전에, 오직 필요할 때에만 프람프트 정보를 표시하도록, 이 프람프트 정보가 표시될 필요가 있는지가 판정될 수도 있다. 버튼이 미리 설정될 수 있는데, 이 버튼은 모든 프람프트 정보를 인에이블(enable) 또는 디스에이블(disable)하기 위해서 사용되며, 버튼이 인에이블될 때에, 현 상황 정보 및 이에 대응하는 프람프트 정보가 취득된 후에 표시된다. 이와 달리, 프람프트 정보의 일부가 또한 인에이블 또는 디스에이블될 수 있는데, 예를 들어서, 현 상황이 설정된 조건을 만족할 때에 대응하는 프람프트 정보를 표시하고 그렇지 않으면 이를 표시하지 않는다. 설정된 조건은 사용자가 특정 상황을 응시하는 기간일 수 있으며 이에 대응하는 프람프트 정보는 이 기간이 설정된 임계치를 초과할 때에만 표시된다. 예를 들어서, 사용자의 안구가 응시하는 위치가 구성된 센서에 의해서 캡처되며, 응시 기간이 설정된 임계치를 초과할 때에, 이에 대응하는 프람프트 정보, 예를 들어 특정 유명인의 얼굴이 그 위치에서 표시된다.
또한, 프람프트 정보의 실시간 표시가 위의 실례로서 취해지고 비실시간 표시가 또한 수행될 수도 있다.
이 실시예는 정보 베이스를 확립함으로써, 정보 베이스 내에서 현 상황 정보에 대응하는 프람프트 정보를 찾고, 스마트 안경 상에 프람프트 정보를 나타냄으로써, 사용자로 하여금 다른 디바이스로부터의 프람프트 정보를 취득하지 않고 이 프람프트 정보를 바로 보게 하여서 사용자에 의한 프람프트 정보 취득을 용이하게 하며, 프람프트 정보를 실시간으로 표시함으로써, 사용자로 하여금 현 상황에 따라서 이에 대응하는 프람프트 정보를 실시간으로 취득할 수 있게 하며 이로써 사용자 경험수준을 향상시킬 수 있다. 스마트 안경 상에 표시하는 것은 디바이스 기능들을 풍부하게 할 수 있다.
본 발명의 설명에 있어서, 용어 "제 1" 및 "제 2"는 서로 간의 상대적 중요성을 지시 또는 암시하는 것으로 이해되기 보다는, 단시 설명의 목적을 위한 것임이 주목되어야 한다. 또한, 본 발명의 설명에서, 이와 달리 특정되지 않으면, "복수의"의 의미는 2 개 이상을 말한다.
흐름도에서 또는 본 명세서에서 달리 기술된 임의의 프로세스 또는 방법은 특정 로직 함수 또는 프로세스 단계를 구현하기 위해서 사용된 실행가능한 인스트럭션들의 하나 이상의 코드들을 포함하는 모듈, 세그먼트 또는 섹션을 나타내는 것으로 이해될 수 있으며, 본 발명의 바람직한 실시예들의 범위는 기능들이 도시 또는 기술된 순서가 아닌 다른 순서에 따라서 실행될 수 있는 구현예들을 더 포함하며, 이러한 순서는 기본적으로 동기적인 방식 또는 관련 기능들과 관련하여 역순을 포함하며, 이러한 바들은 본 기술 분야의 당업자에게 이해되어야 한다.
본 발명의 다양한 부분들은 하드웨어, 소프트웨어, 펌웨어 또는 이들의 조합으로 구현될 수 있음이 이해되어야 한다. 위의 실시예들에서, 복수의 단계들 및 방법들은 메모리 내에 저장되어서 적합한 인스트럭션 실행 시스템에 의해서 실행되는 소프트웨어 또는 펌웨어로 구현될 수 있다. 예를 들어서, 다른 실시예들에서와 마찬가지로 하드웨어로 구현되는 경우에, 본 기술 분야에서 통상적으로 알려진 다음의 기법들 중 임의의 하나 또는 이들의 조합에 의해서 구현될 수 있다: 데이터 신호에 대한 논리 함수를 구현하기 위해서 사용되는 논리 게이트 회로를 갖는 개별 논리 회로, 적합한 조합형 논리적 게이트 회로를 갖는 ASIC(application-specific integrated circuit), PGA(programmable gate array), FPGA(field programmable gate array), 등.
본 기술 분야의 당업자는 상술된 실시예 방법들에서 실행된 단계들의 일부 또는 전부는 프로그램을 사용하여서 관련 하드웨어를 명령함으로써 달성될 수 있다는 것을 이해할 것이다. 프로그램은 컴퓨터 판독가능한 저장 매체 내에 저장될 수 있으며 실해될 때에 이 프로그램은 방법 실시예들에서의 단계들 중 하나 또는 이들의 조합을 포함한다.
또한, 본 발명의 다양한 실시예들에서의 다양한 기능적 유닛들은 프로세싱 모듈 내로 통합될 수 있으며, 또는 유닛들 각각은 물리적으로 단독으로 존재하거나, 2 개 이상의 유닛들이 모듈로 통합될 수도 있다. 상술한 통합형 모듈은 하드웨어 형태로 구현될 수 있으며 또한 소프트웨어 기능 모듈 형태로 구현될 수도 있다. 소프트웨어 기능 모듈로서 구현되고 독립적 제품으로서 판매 또는 사용되는 경우에, 통합 모듈은 또한 컴퓨터 판독가능한 저장 매체 내에 저장될 수도 있다.
상술한 저장 매체는 판독 전용 메모리, 자기 디스크 또는 광학 디스크 등일 수 있다.
명세서 설명에서, "일 실시예", "몇몇 실시예들", "실례", "특정 실례" 또는 "몇몇 실례들"과 같은 참조 용어들의 기술은 이러한 실시예 또는 실례와 관련하여서 기술된 특정 특징, 구조, 재료 또는 특성이 본 발명의 적어도 일 실시예 또는 실례에서 포함됨을 의미하는 것을 의도한다. 본 설명에서, 상술한 용어들의 예시적인 표현은 반드시 동일한 실시예 또는 실례를 지칭하는 것을 아니다. 또한, 기술된 특정 특징, 구조, 재료 또는 특성은 임의의 하나 또는 복수의 실시예들 또는 실례들에서 적합한 방식으로 조합될 수 있다.
본 발명의 실시예들이 위에서 도시 및 기술되었지만, 위의 실시예들은 단지 예시적이며 본 발명을 한정하는 것으로 해석되지 말아야 함이 이해되어야 한다. 본 기술 분야의 당업자는 본 발명의 범위 내에서 위의 실시예들에 대한 변경, 수정, 대체 및 변형을 행할 수 있다.

Claims (16)

  1. 스마트 안경 기반 프람프팅(prompting) 방법으로서,
    현 상황 정보(current scenario information)를 취득하는 단계;
    사전구성된 정보 베이스에 따라서 상기 현 상황 정보에 대응하는 프람프트 정보(prompt informtion)를 결정하는 단계로서, 상기 사전구성된 정보 베이스는 적어도 하나의 종류의 상황 정보 및 각 종류의 상황 정보에 대응하는 프람프트 정보를 저장하는, 상기 프람프트 정보를 결정하는 단계; 및
    상기 스마트 안경에 의해서 상기 프람프트 정보를 표시하는 단계를 포함하는 것을 특징으로 하는, 스마트 안경 기반 프람프팅 방법.
  2. 제 1 항에 있어서,
    상기 사전구성된 정보 베이스를 확립하는 단계를 더 포함하며,
    상기 사전구성된 정보 베이스를 확립하는 단계는,
    사용자에 의해서 설정된 상황 정보 및 상기 상황 정보에 대응하는 프람프트 정보를 상기 정보 베이스 내에 저장하는 단계; 또는
    사용자에 의해서 공중 자원들(public resources)로부터 취득된 상황 정보 및 상기 상황 정보에 대응하는 프람프트 정보를 상기 정보 베이스 내에 저장하는 단계를 포함하는 것을 특징으로 하는, 스마트 안경 기반 프람프팅 방법.
  3. 제 1 항에 있어서,
    상기 현 상황 정보를 취득하는 단계는,
    상기 현 상황의 이미지를 취득하도록 현 상황을 캡처(capture)하는 단계를 포함하는 것을 특징으로 하는, 스마트 안경 기반 프람프팅 방법.
  4. 제 3 항에 있어서,
    상기 현 상황을 캡처하는 단계는,
    상기 현 상황의 이미지를 취득하도록 상기 현 상황을 연속적으로 캡처하는 단계; 또는
    이벤트 트리거 인스트럭션에 따라서 상기 현 상황을 캡처하는 단계를 포함하는 것을 특징으로 하는, 스마트 안경 기반 프람프팅 방법.
  5. 제 4 항에 있어서,
    상기 이벤트 트리거 인스트럭션은,
    사용자에 의해서 주어진 터치 인스트럭션 또는 음성 제어 인스트럭션; 또는
    다른 디바이스를 통해서 사용자에 의해서 전송된 트리거 인스트럭션을 포함하는 것을 특징으로 하는, 스마트 안경 기반 프람프팅 방법.
  6. 제 1 항에 있어서,
    상기 현 상황 정보를 취득하는 단계는,
    상기 현 상황이 위치되는 디바이스에 의해서 전송된 상기 현 상황 정보를 수신하는 단계를 포함하는 것을 특징으로 하는, 스마트 안경 기반 프람프팅 방법.
  7. 제 1 항 내지 제 6 항 중 어느 한 항에 있어서,
    상기 스마트 안경에 의해서 상기 프람프트 정보를 표시하는 단계 이전에,
    상기 현 상황 정보에 대응하는 프람프트 정보가 표시될 필요가 있다고 판정되는 경우에 상기 스마트 안경에 의해서 상기 프람프트 정보를 표시하도록, 상기 현 상황 정보에 대응하는 프람프트 정보가 표시될 필요가 있는지의 여부를 판정하는 단계를 더 포함하는 것을 특징으로 하는, 스마트 안경 기반 프람프팅 방법.
  8. 제 7 항에 있어서,
    상기 현 상황 정보에 대응하는 프람프트 정보가 표시될 필요가 있는지의 여부를 판정하는 단계는,
    상기 사용자가 모든 프람프트 정보를 인에이블(enable)하기로 선택하면, 상기 모든 프람프트 정보가 표시될 필요가 있다고 판정하거나;
    상기 사용자가 상기 현 상황에 대응하는 프람프트 정보를 인에이블(enable)하기로 선택하면, 상기 현 상황에 대응하는 프람프트 정보가 표시될 필요가 있다고 판정하는 단계를 포함하는 것을 특징으로 하는, 스마트 안경 기반 프람프팅 방법.
  9. 스마트 안경 기반 프람프팅(prompting) 장치로서,
    현 상황 정보(current scenario information)를 취득하기 위한 취득 모듈;
    사전구성된 정보 베이스에 따라서 상기 현 상황 정보에 대응하는 프람프트 정보(prompt informtion)를 결정하기 위한 결정 모듈로서, 상기 사전구성된 정보 베이스는 적어도 하나의 종류의 상황 정보 및 각 종류의 상황 정보에 대응하는 프람프트 정보를 저장하는, 상기 결정 모듈; 및
    상기 스마트 안경에 의해서 상기 프람프트 정보를 표시하기 위한 표시 모듈을 포함하는 것을 특징으로 하는, 스마트 안경 기반 프람프팅 장치.
  10. 제 9 항에 있어서,
    상기 사전구성된 정보 베이스를 확립하기 위한 확립 모듈을 더 포함하며,
    상기 확립 모듈은,
    사용자에 의해서 설정된 상황 정보 및 상기 상황 정보에 대응하는 프람프트 정보를 상기 정보 베이스 내에 저장하거나;
    사용자에 의해서 공중 자원들(public resources)로부터 취득된 상황 정보 및 상기 상황 정보에 대응하는 프람프트 정보를 상기 정보 베이스 내에 저장하기 위해서 특정하게 사용되는 것을 특징으로 하는, 스마트 안경 기반 프람프팅 장치.
  11. 제 9 항에 있어서,
    상기 취득 모듈은,
    상기 현 상황의 이미지를 취득하도록 현 상황을 캡처(capture)하기 위해서 특정하게 사용되는 것을 특징으로 하는, 스마트 안경 기반 프람프팅 장치.
  12. 제 11 항에 있어서,
    상기 취득 모듈은,
    상기 현 상황의 이미지를 취득하도록 상기 현 상황을 연속적으로 캡처하거나;
    이벤트 트리거 인스트럭션에 따라서 상기 현 상황을 캡처하기 위해서 특정하게 사용되는 것을 특징으로 하는, 스마트 안경 기반 프람프팅 장치.
  13. 제 12 항에 있어서,
    상기 취득 모듈에 의해서 사용되는 상기 이벤트 트리거 인스트럭션은,
    사용자에 의해서 주어진 터치 인스트럭션 또는 음성 제어 인스트럭션; 또는
    다른 디바이스를 통해서 사용자에 의해서 전송된 트리거 인스트럭션을 포함하는 것을 특징으로 하는, 스마트 안경 기반 프람프팅 장치.
  14. 제 9 항에 있어서,
    상기 취득 모듈은,
    상기 현 상황이 위치되는 디바이스에 의해서 전송된 상기 현 상황 정보를 수신하기 위해서 특정하게 사용되는 것을 특징으로 하는, 스마트 안경 기반 프람프팅 장치.
  15. 제 9 항 내지 제 14 항 중 어느 한 항에 있어서,
    상기 현 상황 정보에 대응하는 프람프트 정보가 표시될 필요가 있다고 판정되는 경우에 상기 스마트 안경에 의해서 상기 프람프트 정보를 표시하도록, 상기 현 상황 정보에 대응하는 프람프트 정보가 표시될 필요가 있는지의 여부를 판정하기 위한 판정 모듈을 더 포함하는 것을 특징으로 하는, 스마트 안경 기반 프람프팅 장치.
  16. 제 15 항에 있어서,
    상기 판정 모듈은,
    상기 사용자가 모든 프람프트 정보를 인에이블(enable)하기로 선택하면, 상기 모든 프람프트 정보가 표시될 필요가 있다고 판정하거나;
    상기 사용자가 상기 현 상황에 대응하는 프람프트 정보를 인에이블(enable)하기로 선택하면, 상기 현 상황에 대응하는 프람프트 정보가 표시될 필요가 있다고 판정하기 위해서 특정하게 사용되는 것을 특징으로 하는, 스마트 안경 기반 프람프팅 장치.
KR1020140194551A 2014-04-04 2014-12-31 스마트 안경 기반 프람프팅 방법 및 장치 KR101811487B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410137386.0 2014-04-04
CN201410137386.0A CN103927350A (zh) 2014-04-04 2014-04-04 基于智能眼镜的提示方法和装置

Publications (2)

Publication Number Publication Date
KR20150115617A true KR20150115617A (ko) 2015-10-14
KR101811487B1 KR101811487B1 (ko) 2017-12-21

Family

ID=51145571

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140194551A KR101811487B1 (ko) 2014-04-04 2014-12-31 스마트 안경 기반 프람프팅 방법 및 장치

Country Status (4)

Country Link
US (1) US9817235B2 (ko)
JP (1) JP6081440B2 (ko)
KR (1) KR101811487B1 (ko)
CN (1) CN103927350A (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104133920A (zh) * 2014-07-18 2014-11-05 百度在线网络技术(北京)有限公司 一种用户行为采集方法及装置
CN104571515B (zh) * 2014-12-29 2019-03-29 联想(北京)有限公司 一种信息处理方法及电子设备
CN105320280B (zh) * 2015-09-23 2018-07-03 联想(北京)有限公司 一种信息处理方法和电子设备
CN105929953A (zh) * 2016-04-18 2016-09-07 北京小鸟看看科技有限公司 一种3d沉浸式环境下的操作引导方法和装置及虚拟现实设备
CN106372610B (zh) * 2016-09-05 2020-02-14 深圳市联谛信息无障碍有限责任公司 一种基于智能眼镜的前景信息提示方法及智能眼镜
CN106372617A (zh) * 2016-09-20 2017-02-01 郑州云海信息技术有限公司 一种基于大数据的智能场景识别方法和装置
CN106777071B (zh) * 2016-12-12 2021-03-05 北京奇虎科技有限公司 一种图像识别获取参考信息的方法和装置
JP6605442B2 (ja) 2016-12-27 2019-11-13 本田技研工業株式会社 情報提供装置および情報提供方法
CN109309757B (zh) * 2018-08-24 2020-11-10 百度在线网络技术(北京)有限公司 备忘录提醒方法及终端
CN109298781B (zh) * 2018-08-28 2020-11-06 百度在线网络技术(北京)有限公司 基于ar的留言处理方法、装置、设备及计算机存储介质
CN112445321A (zh) * 2019-08-28 2021-03-05 菜鸟智能物流控股有限公司 物品处理方法、装置及电子设备
CN111813281A (zh) * 2020-05-28 2020-10-23 维沃移动通信有限公司 信息获取方法、信息输出方法、装置和电子设备
US11183049B1 (en) 2021-01-22 2021-11-23 International Business Machines Corporation Monitoring and instigating shifts in visual focus
CN113065456A (zh) * 2021-03-30 2021-07-02 上海商汤智能科技有限公司 信息提示方法、装置、电子设备和计算机存储介质
CN113556423B (zh) * 2021-07-15 2023-04-07 Oppo广东移动通信有限公司 信息处理方法、装置、系统、存储介质和电子设备

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140012674A1 (en) * 2000-03-21 2014-01-09 Gregory A. Piccionielli Heads-up billboard
EP1922614A2 (en) * 2005-08-15 2008-05-21 Koninklijke Philips Electronics N.V. System, apparatus, and method for augmented reality glasses for end-user programming
JP5014494B2 (ja) * 2011-01-21 2012-08-29 パナソニック株式会社 情報処理装置、拡張現実感システム、情報処理方法、及び情報処理プログラム
JP2012155403A (ja) * 2011-01-24 2012-08-16 Yokogawa Electric Corp フィールド機器監視システム
JP5762892B2 (ja) * 2011-09-06 2015-08-12 ビッグローブ株式会社 情報表示システム、情報表示方法、及び情報表示用プログラム
US20130147686A1 (en) * 2011-12-12 2013-06-13 John Clavin Connecting Head Mounted Displays To External Displays And Other Communication Networks
US20140294257A1 (en) * 2013-03-28 2014-10-02 Kevin Alan Tussy Methods and Systems for Obtaining Information Based on Facial Identification
US9317114B2 (en) * 2013-05-07 2016-04-19 Korea Advanced Institute Of Science And Technology Display property determination
CN203276167U (zh) * 2013-05-14 2013-11-06 中国人民解放军海军航空工程学院 一套基于感兴趣区实现辅助信息提示的人机接口设备

Also Published As

Publication number Publication date
US20150293359A1 (en) 2015-10-15
KR101811487B1 (ko) 2017-12-21
JP2015201168A (ja) 2015-11-12
CN103927350A (zh) 2014-07-16
US20170205629A9 (en) 2017-07-20
US9817235B2 (en) 2017-11-14
JP6081440B2 (ja) 2017-02-15

Similar Documents

Publication Publication Date Title
KR101811487B1 (ko) 스마트 안경 기반 프람프팅 방법 및 장치
US9788065B2 (en) Methods and devices for providing a video
EP3148184B1 (en) Video telephony system, image display apparatus, driving method of image display apparatus, method for generating realistic image, and non-transitory computer readable recording medium
US11184529B2 (en) Smart recording system
CN111897507B (zh) 投屏方法、装置、第二终端和存储介质
JP6419201B2 (ja) ビデオ再生のための方法および装置
US20170171613A1 (en) Method and apparatus for controlling electronic device, and storage medium
US9961267B2 (en) Personal camera companion for real-time streaming
KR101798185B1 (ko) 휴대 단말, 디스플레이 장치 및 이들의 컨텐츠 공유 방법
US20170272425A1 (en) Method and device for accessing smart camera
CN111372112B (zh) 一种视频同步显示的方法、装置及系统
US9685196B2 (en) Sharing and synchronizing content
CN104012106A (zh) 使表示不同视点的视频对准
KR20170012178A (ko) 동영상 내용을 획득하기 위한 방법 및 장치
KR20190014092A (ko) 이미지 천이들 사이에서의 원하는 줌 레벨 및 관심 오브젝트로의 이미지들의 그룹의 록킹
CN108882004B (zh) 视频录制方法、装置、设备及存储介质
CN112203020B (zh) 配置终端设备的相机配置参数的方法、装置和系统
CN105100629B (zh) 一种图片处理方法和电子设备
US9871884B2 (en) Method and device for transferring messages
US20170013074A1 (en) Methods and apparatuses for providing information of video capture device
KR102372721B1 (ko) 영상 분석 방법, 사용자 디바이스 및 컴퓨터 프로그램
US11595565B2 (en) Image capturing apparatus, method for controlling the same, and recording medium for automatic image capturing of a subject
US20190392206A1 (en) Image processing apparatus and image processing method
CN114779936A (zh) 信息显示方法、装置、电子设备及存储介质
US20160295091A1 (en) Method and apparatus for capturing images

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right