KR20140143505A - 뷰 모드에서 정보 제공 방법 및 장치 - Google Patents

뷰 모드에서 정보 제공 방법 및 장치 Download PDF

Info

Publication number
KR20140143505A
KR20140143505A KR1020130065089A KR20130065089A KR20140143505A KR 20140143505 A KR20140143505 A KR 20140143505A KR 1020130065089 A KR1020130065089 A KR 1020130065089A KR 20130065089 A KR20130065089 A KR 20130065089A KR 20140143505 A KR20140143505 A KR 20140143505A
Authority
KR
South Korea
Prior art keywords
virtual information
information
importance
real image
virtual
Prior art date
Application number
KR1020130065089A
Other languages
English (en)
Other versions
KR102098058B1 (ko
Inventor
김경화
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130065089A priority Critical patent/KR102098058B1/ko
Priority to US14/299,550 priority patent/US20140362111A1/en
Priority to EP14171652.2A priority patent/EP2811462B1/en
Publication of KR20140143505A publication Critical patent/KR20140143505A/ko
Application granted granted Critical
Publication of KR102098058B1 publication Critical patent/KR102098058B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 뷰 모드에서 카메라 모듈을 통해 획득하는 현실 세계의 현실 이미지에 가상 정보를 매핑시켜 표시할 시, 현실 이미지의 오브젝트 중요도(우선순위)에 따라 가상 정보를 차등 적용하여 표시할 수 있는 뷰 모드에서 정보 제공 방법 및 장치에 관한 것으로, 본 발명의 한 실시 예에 따르면, 전자장치를 이용한 정보 제공 방법에 있어서, 뷰 모드에서 획득되는 현실 이미지를 표시하는 동작; 상기 현실 이미지에 따른 오브젝트의 중요도를 분석하는 동작; 상기 오브젝트의 중요도에 따라 오브젝트별 가상 정보의 표시 범위를 결정하는 동작; 및 상기 가상 정보의 표시 범위에 따른 오브젝트별 가상 정보를 표시하는 동작을 포함할 수 있다. 본 발명은 상기한 한 실시 예를 기반으로 다양한 다른 실시 예들이 가능하다.

Description

뷰 모드에서 정보 제공 방법 및 장치{METHOD AND APPARATUS FOR PROVIDING INFORMATION IN A VIEW MODE}
본 발명은 뷰 모드(view mode)에서 정보 제공 방법 및 장치에 관한 것으로, 카메라 모듈(camera module)을 통해 입력된 현실 세계(real-world)의 이미지나 배경에 다양한 정보를 매핑(mapping)시켜 표시할 수 있는 뷰 모드에서 정보 제공 방법 및 장치에 관한 것이다.
최근 디지털 기술의 발달과 함께 통신 및 개인정보 처리가 가능한 다양한 전자장치(예컨대, 이동통신 단말기, PDA(Personal Digital Assistant), 전자수첩, 스마트 폰, 태블릿 PC(Personal Computer) 등)가 출시되고 있다. 이러한 전자장치는 각자의 전통적인 고유 영역에 머무르지 않고 다른 전자장치들의 영역까지 아우르는 모바일 컨버전스(mobile convergence) 단계에 이르고 있다. 예를 들어, 휴대단말은 음성통화 및 영상통화 등과 같은 통화 기능, SMS(Short Message Service)/MMS(Multimedia Message Service) 및 이메일(e-mail) 등과 같은 메시지 송수신 기능, 내비게이션 기능, 문서(예컨대, 메모(memo), 오피스(office)) 작성 기능, 촬영 기능, 방송 재생 기능, 미디어(동영상 및 음악) 재생 기능, 인터넷 기능, 메신저 기능 및 소셜 네트워크 서비스(SNS, Social Networking Service) 기능 등의 다양한 기능들을 구비할 수 있다.
전자장치에 관련된 기술들이 발전함에 따라 제공할 수 있는 서비스의 영역도 확대되고 있고, 그로 인하여 사용자에게 각종 정보를 제공하는 다양한 서비스 시스템도 개발되고 있다. 그 서비스 중의 하나로 최근에는 증강 현실(AR, Augmented Reality) 기술을 이용하여 카메라 모듈을 등으로부터 얻은 실제 화면(현실 세계(real-world)의 배경 등)에 부가 정보를 중첩하여 보다 현실감 있는 정보를 제공하는 서비스가 증가하고 있다.
증강 현실 기술은 가상현실(Virtual Reality) 기술에서 파생된 기술로, 카메라 모듈 등으로부터 얻은 실제 화면에 부가 정보를 중첩하여 표시함으로써, 현실 세계에 대한 인지도를 향상시킬 수 있는 기술을 말한다. 즉, 증강 현실 기술은 가상현실의 한 분야로, 실제 환경에 가상 사물이나 정보를 합성하는 컴퓨터 그래픽 기법이다. 증강 현실 기술은 가상의 공간과 사물만을 대상으로 하는 가상현실과 달리, 실제 환경이라는 기반 위에 가상의 사물이나 정보를 합성함으로써, 현실 세계만으로는 얻기 어려운 부가 정보를 보강할 수 있다.
이러한 증강 현실 기술은 실제 환경에 속하는 오브젝트(object)들 전체에 필터를 적용하여, 합성되는 가상의 사물이나 정보를 선별하는 기능을 제공할 수 있다. 그러나 종래에서는 모든 오브젝트들에 대해 동일한 필터를 적용할 뿐, 오브젝트별로 특정 필터를 적용할 수 없었다. 따라서 기존의 증강 현실 기능을 지원하는 전자장치에서는 해당 증강 현실 어플리케이션 또는 증강 현실의 서비스 제공자가 제공하는 필터에 따른 모든 정보들을 동일하게 표시하고, 또한 여러 정보들을 한꺼번에 표시하기 때문에 사용자가 관심이 있는 정보만을 구분하여 표시할 수 없었다.
본 발명의 목적은 뷰 모드(view mode)에서 카메라 모듈을 통해 실시간으로 입력되는 현실 이미지에 대한 가상 정보를 차등 적용하여 표시할 수 있는 뷰 모드에서 정보 제공 방법 및 장치를 제공함에 있다.
본 발명의 다른 목적은 카메라 모듈 등을 통해 실시간으로 입력되는 현실 세계(real-world)에 대응되는 정보를 매핑시켜 표시할 시 현실 이미지의 각 오브젝트별 중요도 또는 우선순위에 따라 해당 정보를 차등적으로 표시할 수 있는 뷰 모드에서 정보 제공 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 전자장치에서 증강 현실에 따른 현실 이미지에 가상 정보를 표시할 시 카메라 모듈을 통해 획득되는 현실 이미지를 동일 레벨(level)로 처리하거나, 현실 이미지의 각 오브젝트들마다 중요도(또는 우선순위)를 구분하여 차등 레벨로 처리하여 현실 이미지에 대한 가상 정보를 차등적으로 적용하여 표시할 수 있는 뷰 모드에서 정보 제공 방법 및 장치를 제공함에 있다.
본 발명의 다양한 실시 예들에서 전자장치는 본 발명의 다양한 실시 예들에 따른 기능을 지원하는 모든 정보통신기기, 멀티미디어기기 및 그에 대한 응용기기와 같이 AP(Application Processor), GPU(Graphic Processing Unit), CPU(Central Processing Unit)를 사용하는 모든 전자장치를 포함할 수 있다.
본 발명의 또 다른 목적은 현실 이미지를 동일 레벨로 처리하는 경우 현실 이미지의 오브젝트의 수에 따라 정보의 표시 범위(또는 정보의 양)를 변화시켜 표시할 수 있는 뷰 모드에서 정보 제공 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 현실 이미지를 차등 레벨로 처리하는 경우 현실 이미지의 오브젝트의 중요도(우선순위)에 따라 오브젝트 별 정보의 표시 범위(또는 정보의 양)를 변화시켜 표시할 수 있는 뷰 모드에서 정보 제공 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 전자장치에서 증강 현실에 따른 현실 이미지에 가상 정보를 매핑시켜 표시할 시 중요도(우선순위)에 따라 거리감 및 방향감을 보다 직관적으로 인식하도록 하여 현실 이미지의 오브젝트별 매핑 정보를 쉽고 편리하게 확인할 수 있도록 하는 뷰 모드에서 정보 제공 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 전자장치에서 증강 현실을 이용한 가상 정보를 표시하기 위한 최적의 환경을 구현하여 사용자의 편의성 및 전자장치의 사용성을 향상시킬 수 있는 뷰 모드에서 정보 제공 방법 및 장치를 제공함에 있다.
상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 전자장치를 이용한 정보 제공 방법에 있어서, 뷰 모드에서 획득되는 현실 이미지를 표시하는 과정; 상기 현실 이미지에 따른 오브젝트의 중요도를 분석하는 과정; 상기 오브젝트의 중요도에 따라 오브젝트별 가상 정보의 표시 범위를 결정하는 과정; 및 상기 가상 정보의 표시 범위에 따른 오브젝트별 가상 정보를 표시하는 과정을 포함한다.
상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 장치는, 전자장치에 있어서, 뷰 모드에서 피사체의 현실 이미지를 획득하는 카메라 모듈; 상기 카메라 모듈에서 획득된 상기 현실 이미지를 표시하고, 상기 현실 이미지의 오브젝트에 가상 정보를 오버랩하여 표시하는 표시부; 및 상기 현실 이미지에 따른 오브젝트의 중요도를 분석하고, 상기 오브젝트의 중요도에 따라 오브젝트별 가상 정보의 표시 범위를 결정하며, 상기 가상 정보의 표시 범위에 따른 가상 정보를 각 오브젝트에 매핑하여, 각 오브젝트에 오버랩되는 가상 정보의 표시를 제어하는 제어부를 포함한다.
상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 장치는, 전자장치에 있어서, 뷰 모드에서 획득되는 현실 이미지를 표시하기 위한 컴퓨터에 의해 실행되는(computer-implemented) 현실 이미지 표시 모듈; 상기 현실 이미지에 따른 오브젝트의 중요도에 따라 오브젝트별 가상 정보의 표시 범위를 결정하기 위한 컴퓨터에 의해 실행되는 정보 처리 모듈; 및 오브젝트별 가상 정보를 각각의 오브젝트에 매핑시켜 표시하기 위한 컴퓨터에 의해 실행되는 정보 표시 모듈을 포함한다.
상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 기록 매체는, 뷰 모드에서 획득되는 현실 이미지를 표시하는 동작, 상기 현실 이미지에 따른 오브젝트의 중요도에 따라 오브젝트별 가상 정보의 표시 범위를 결정하는 동작, 그리고 오브젝트별 가상 정보를 각각의 오브젝트에 매핑시켜 표시하는 동작을 수행하는 프로그램을 저장한 컴퓨터로 읽을 수 있는 기록 매체를 포함한다.
전술한 바와 같은 내용들은 당해 분야에서 통상의 지식을 가진 자가 후술되는 본 발명의 다양한 실시 예들에 대한 구체적인 설명으로부터 보다 잘 이해할 수 있도록 하기 위하여 본 발명의 특징들 및 기술적인 장점들을 다소 넓게 약술한 것이다. 이러한 특징들 이외에도 본 발명의 청구범위의 주제를 형성하는 본 발명의 추가적인 특징들이 후술되는 본 발명의 구체적인 설명으로부터 잘 이해될 것이다.
상술한 바와 같이 본 발명에서 제안하는 뷰 모드에서 정보 제공 방법 및 장치에 따르면, 뷰 모드(view mode)에서 카메라 모듈을 통해 실시간으로 입력되는 현실 세계(real-world)의 현실 이미지와 상기 현실 이미지에 대응하는 가상 정보를 실시간으로 매핑하여 표시할 수 있다. 본 발명에 따르면, 뷰 모드에서 상기 현실 이미지에 가상 정보를 매핑시켜 표시할 시 현실 이미지를 구성하는 오브젝트(object)에 따라 매핑되는 가상 정보를 차등적으로 표시할 수 있다. 본 발명에 따르면, 현실 이미지의 오브젝트를 동일 레벨로 하여 가상 정보를 차등적으로 표시하거나, 또는 현실 이미지의 오브젝트를 차등 레벨로 하여 가상 정보를 차등적으로 표시할 수 있다.
본 발명에 따르면, 현실 이미지의 오브젝트 수 또는 현실 이미지의 오브젝트별 중요도(우선순위)에 따라 현실 이미지의 오브젝트별 매핑되는 가상 정보의 표시 범위(정보의 양)를 다르게 표시할 수 있다. 본 발명에 따르면, 가상 정보의 표시 범위(정보의 양)는 오브젝트에 대한 가상 정보의 중요도 또는 우선순위에 따라 결정될 수 있고, 가상 정보의 중요도 또는 우선순위는 현실 이미지의 분류(예컨대, 인물, 건물, 또는 물체 등과 같은 유형의 오브젝트를 가지는 현실 세계의 배경, 위치 기반의 무형의 스폿(spot)에 관계된 현실 세계의 배경 등)에 따라 결정될 수 있다.
본 발명에 따르면, 증강 현실에 따른 현실 이미지에 가상 정보를 표시할 시 카메라 모듈을 통해 획득되는 현실 이미지를 동일 레벨로 처리하거나, 현실 이미지의 각 오브젝트들마다 중요도(또는 우선순위)를 구분하여 차등 레벨로 처리하여 현실 이미지에 대한 가상 정보를 차등적으로 적용하여 표시할 수 있다. 본 발명에 따르면, 현실 이미지를 동일 레벨로 처리하는 경우 현실 이미지의 오브젝트의 수에 따라 가상 정보의 표시 범위(또는 정보의 양)를 변화시켜 차등 표시할 수 있고, 현실 이미지를 차등 레벨로 처리하는 경우 현실 이미지의 오브젝트의 중요도(우선순위)에 따라 오브젝트 별 가상 정보의 표시 범위(또는 정보의 양)를 변화시켜 차등 표시할 수 있다.
본 발명에 따르면, 전자장치에서 증강 현실에 따른 현실 이미지에 따라 가상 정보를 차등적으로 매핑시켜 표시하여, 현실 이미지의 중요도(우선순위)에 따라 거리감 및 방향감을 보다 직관적으로 제공할 수 있다. 이에 따라, 사용자는 현실 이미지의 오브젝트 별로 매핑된 가상 정보를 중요도(우선순위)에 따라 보다 쉽고 편리하게 확인할 수 있도록 지원할 수 있다.
본 발명에 따르면, 전자장치에서 증강 현실을 이용한 가상 정보를 표시하기 위한 최적의 환경을 구현함으로써, 사용자의 편의성을 향상시키고, 전자장치의 사용성, 편의성 및 경쟁력을 향상시키는데 기여할 수 있다. 이러한 본 발명의 다양한 실시 예들은 휴대단말(예컨대, 스마트폰, 태블릿 컴퓨터, PDA, 디지털 카메라 등)과 같은 휴대용 사용자 기기뿐만 아니라, 데이터 처리(예컨대, 표시)가 가능한 다양한 전자장치 및 그에 대응하는 다양한 디바이스들에 구현될 수 있다.
도 1은 본 발명의 실시 예에 따른 전자장치의 구성을 개략적으로 도시한 도면이다.
도 2는 본 발명의 실시 예에 따른 전자장치에서 가상 정보를 제공하는 방법을 도시한 흐름도이다.
도 3a 내지 도 4b는 본 발명의 실시 예에 따른 전자장치에서 현실 이미지가 동일 레벨로 처리되는 경우의 동작 예시를 도시한 도면들이다.
도 5 및 도 6은 본 발명의 실시 예에 따른 전자장치에서 현실 이미지가 차등 레벨로 처리되는 경우의 동작 예시를 도시한 도면들이다.
도 7은 본 발명의 실시 예에 따른 전자장치에서 현실 이미지가 차등 레벨로 처리되는 경우의 동작 예시를 도시한 도면이다.
도 8은 본 발명의 실시 예에 따른 전자장치에서 현실 이미지에 가상 정보를 매핑시켜 표시하는 방법을 도시한 흐름도이다.
이하, 첨부된 도면들을 참조하여 본 발명의 다양한 실시 예들을 상세히 설명한다. 이때, 첨부된 도면들에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음에 유의해야 한다. 또한 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 하기의 설명에서는 본 발명의 다양한 실시 예들에 따른 동작을 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 발명의 요지를 흩트리지 않도록 생략될 것이라는 것을 유의하여야 한다.
제안하는 본 발명은 뷰 모드(view mode)에서 정보 제공 방법 및 장치에 관한 것으로, 특히 카메라 모듈을 통해 실시간으로 입력되는 현실 이미지(reality image)와 가상 정보(virtual information)를 함께 표시할 수 있는 증강 현실을 이용한 뷰 모드에서 정보 제공 방법 및 장치에 관한 것이다. 본 발명의 다양한 실시 예에서는 뷰 모드에서 증강 현실(AR, Augmented Reality)을 이용한 현실 세계(real-world)의 현실 이미지(reality image)(예컨대, 이미지나 배경 등)를 표시할 때 다양한 가상 정보(virtual information)를 매핑(mapping)시켜 표시할 수 있도록 하는 것에 관한 것이다. 본 발명의 다양한 실시 예에 따르면, 상기 뷰 모드는 증강 현실 어플리케이션별로 제공되는 증강 현실 뷰 모드 또는 카메라 모듈의 턴-온(turn-on)에 따라 현실 이미지가 프리뷰로 제공되는 프리뷰 모드를 포함할 수 있다.
본 발명의 실시 예에 따르면, 뷰 모드에서 카메라 모듈을 통해 획득하는 현실 이미지를 표시할 때 표시되는 현실 이미지에 대응하여 상기 가상 정보를 차등적으로 표시할 수 있다. 본 발명의 다양한 실시 예에서는 상기 뷰 모드에서 현실 이미지에 가상 정보를 매핑시켜 표시할 때, 상기 현실 이미지의 오브젝트(object) 수 또는 상기 현실 이미지의 오브젝트 별 중요도(우선순위)에 따라 가상 정보를 차등 적용하여 표시할 수 있다.
예를 들어, 본 발명의 실시 예에 따른 전자장치는 뷰 모드에서 증강 현실에 따른 현실 이미지에 가상 정보를 매핑시켜 표시할 시 상기 현실 이미지의 오브젝트의 수에 따라 정보의 표시 범위(또는 정보의 양)를 변화시켜 차등적으로 표시할 수 있다. 또는 본 발명의 실시 예에 따른 전자장치는 뷰 모드에서 증강 현실에 따른 현실 이미지에 가상 정보를 매핑시켜 표시할 시 상기 현실 이미지의 오브젝트의 중요도(우선순위)에 따라 오브젝트 별 정보의 표시 범위(또는 정보의 양)를 변화시켜 차등적으로 표시할 수 있다.
본 발명의 다양한 실시 예에서 상기 오브젝트의 중요도는, 오브젝트의 수, 오브젝트의 크기, 오브젝트의 거리, 오브젝트의 제공 시기, 오브젝트의 표시 시기 등과 같은 요건들 중 적어도 하나에 의해 결정될 수 있다. 또한 상기 오브젝트의 중요도는 사용자 설정에 따라 다양하게 설정 및 변경될 수 있다. 한 실시 예에 따르면, 사용자는 오브젝트의 수 별로 중요도를 결정하거나, 또는 오브젝트의 수와 오브젝트의 거리를 조합하여 이들 조합 별로 중요도를 결정할 수 있다. 즉, 본 발명의 실시 예에서 오브젝트의 중요도는 상기한 요건들 중 어느 하나 또는 적어도 두 개의 요건들의 임의 조합에 의해 결정될 수 있다. 그리고 오브젝트의 중요도가 사용자에 의해 임의적으로 변경 설정될 시, 변경되는 오브젝트의 중요도에 따라 가상정보도 변경되어 표시될 수 있다.
본 발명의 다양한 실시 예에서 증강 현실은, 사용자로 하여금 실제적 환경에서 가상 정보를 오버랩(overlap)하여 보여주는 기술을 말한다. 예를 들어, 전자장치의 카메라 모듈을 통해 획득되어 프리뷰로 표시되는 현실 이미지 위에 가상의 정보를 오버랩하여 표시함으로써, 사용자는 가상 정보를 현실 세계의 일부로 인식하게 된다.
본 발명의 다양한 실시 예에서 뷰 모드를 통해 프리뷰(preview)로 표시되는 상기 현실 이미지는 인물, 건물, 동물 또는 물체(예컨대, 자동차, 자전거, 조형물, 동상 등) 등과 같은 유형의 오브젝트를 가지는 현실 세계의 배경을 포함할 수 있고, 또는 위치 정보 서비스 기반의 무형의 스폿(spot)에 관계된 이미지(예컨대, 지도 데이터(map data) 등)를 포함할 수 있다.
본 발명의 다양한 실시 예에서, 가상 정보는 인물, 건물, 동물, 물체 또는 지도 등에 관계된 텍스트 정보나 이미지 정보 등을 포함할 수 있다. 예를 들어, 가상 정보는 컨택트 정보, 증강 현실 기반의 어트랙트 스폿(attract spot) 정보(예컨대, 호텔 정보, 건축물 정보, 맛집 정보 등), SNS(Social Networking Service) 정보, RSS(Really Simple Syndication or Rich Site Summary) 피드(feed) 정보 등 다양한 정보를 포함할 수 있다. 상기 가상 정보는 사용자 설정에 따라 중요도(우선순위)가 부여될 수 있다.
이하에서, 본 발명의 다양한 실시 예에 따른 전자장치의 구성과 그의 운용 제어 방법에 대하여 하기 도면들을 참조하여 살펴보기로 한다. 본 발명의 실시 예에 따른 전자장치의 구성과 그의 운용 제어 방법이 하기에서 기술하는 내용에 제한되거나 한정되는 것은 아니므로 하기의 실시 예들에 의거하여 다양한 실시 예들에 적용할 수 있음에 유의하여야 한다.
도 1은 본 발명의 실시 예에 따른 전자장치의 구성을 개략적으로 도시한 도면이다.
상기 도 1을 참조하면, 본 발명의 전자장치는 무선 통신부(110), 사용자 입력부(120), 터치스크린(130), 오디오 처리부(140), 저장부(150), 인터페이스부(160), 카메라 모듈(170), 제어부(180), 그리고 전원 공급부(190)를 포함하여 구성될 수 있다. 다양한 실시 예들에 따르면, 본 발명의 전자장치는 도 1에 도시된 구성 요소들보다 많은 구성 요소들을 가지거나, 또는 그보다 적은 구성 요소들을 가지는 것으로 구현될 수 있다. 예를 들어, 본 발명의 실시 예에 따른 전자장치가 방송 수신 및 재생 기능을 지원하지 않는 경우 일부 모듈, 예컨대, 상기 무선 통신부(110)의 방송 수신 모듈(119)의 구성은 생략될 수도 있다.
상기 무선 통신부(110)는 전자장치와 무선 통신 시스템 사이 또는 전자장치와 다른 전자장치 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 이동통신 모듈(111), 무선 랜 모듈(113), 근거리 통신 모듈(115), 위치 산출 모듈(117), 그리고 방송 수신 모듈(119) 등을 포함하여 구성될 수 있다.
이동통신 모듈(111)은 이동통신 네트워크 상에서 기지국, 외부의 단말, 그리고 다양한 서버들(예컨대, 통합 서버(integration server), 프로바이더 서버(provider server), 컨텐츠 서버(content server), 인터넷 서버(internet server), 클라우드 서버(cloud server) 등) 중 적어도 하나와 무선 신호를 송수신할 수 있다. 상기 무선 신호는 음성통화 신호, 화상통화 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. 본 발명의 다양한 실시 예에서 상기 무선 신호는 다양한 서버들로부터 수신되는 현실 세계의 현실 이미지와 관계되는 다양한 정보(본 발명에서 가상 정보로 이용될 수 있는 정보)를 포함할 수 있다.
무선 랜 모듈(113)은 무선 인터넷 접속 및 다른 전자장치와 무선 랜 링크(link)를 형성하기 위한 모듈을 나타낸 것으로, 전자장치에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 무선 랜(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), 그리고 HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. 무선 랜 모듈(113)은 다른 전자장치와 무선 랜 링크가 형성될 시 사용자 선택에 따른 다양한 가상 정보를 다른 전자장치로 전송하거나 수신 받을 수 있다. 또한 무선 랜 모듈(113)은 다양한 서버들과 무선 랜 통신이 연결될 시 현재 위치에서 표시되는 현실 이미지와 관계된 가상 정보를 수신 받을 수도 있다. 이러한 무선 랜 모듈(113)은 상시 온(On) 상태를 유지하거나, 사용자 설정 또는 입력에 따라 턴-온(turn-on)될 수 있다.
근거리 통신 모듈(115)은 근거리 통신(short range communication)을 위한 모듈을 나타낸다. 근거리 통신 기술로 블루투스(Bluetooth), 블루투스 저에너지(BLE, Bluetooth Low Energy), RFID(Radio Frequency Identification), 적외선 통신(IrDA, Infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), 그리고 NFC(Near Field Communication) 등이 이용될 수 있다. 또한 근거리 통신 모듈(115)은 다른 전자장치와 근거리 통신이 연결될 시 사용자 선택에 따른 다양한 가상 정보를 다른 전자장치로 전송하거나 수신 받을 수 있다. 이러한 근거리 통신 모듈(115)은 상시 온 상태를 유지하거나, 사용자 설정 또는 입력에 따라 턴-온될 수 있다.
위치 산출 모듈(115)은 전자장치의 위치를 획득하기 위한 모듈로서, 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 위치 산출 모듈(115)은 3개 이상의 기지국들로부터 떨어진 거리 정보와 정확한 시간 정보를 산출한 다음 상기 산출된 정보에 삼각법을 적용함으로써, 위도(latitude), 경도(longitude), 및 고도(altitude)에 따른 3차원의 현 위치 정보를 산출할 수 있다. 또는 위치 산출 모듈(115)은 3개 이상의 위성들로부터 전자장치의 위치 정보를 실시간으로 계속 수신함으로써 위치 정보를 산출할 수 있다. 전자장치의 위치 정보는 다양한 방법에 의해 획득될 수 있다.
방송 수신 모듈(119)은 방송 채널(예컨대, 위성 방송 채널, 지상파 방송 채널 등)을 통하여 외부의 방송 관리 서버로부터 방송 신호(예컨대, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호 등) 및/또는 상기 방송과 관련된 정보(예컨대, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보 등)를 수신할 수 있다.
사용자 입력부(120)는 전자장치의 동작 제어를 위한 입력 데이터를 사용자 입력에 대응하여 발생시킬 수 있다. 사용자 입력부(120)는 키패드(key pad), 돔 스위치(dome switch), 터치패드(정압/정전), 조그 휠(jog wheel), 조그 스위치(jog switch), 센서(예컨대, 음성센서, 근접센서, 조도센서, 가속도센서, 자이로센서 등) 등을 포함하여 구성될 수 있다. 또한 사용자 입력부(120)는 전자장치의 외부에 버튼 형태로 구현될 수 있으며, 일부 버튼들은 터치 패널(touch panel)로 구현될 수도 있다. 사용자 입력부(120)는 본 발명의 뷰 모드 진입을 위한 사용자 입력을 수신하고, 상기 사용자 입력이 수신될 시 그에 따른 입력신호를 발생시킬 수 있다. 또한 사용자 입력부(120)는 본 발명의 뷰 모드에서 현실 이미지에 대응하는 가상 정보의 중요도(또는 우선순위) 설정을 위한 사용자 입력을 수신하고, 상기 사용자 입력이 수신될 시 그에 따른 입력신호를 발생시킬 수 있다. 예를 들어, 사용자 입력부(120)는 현실 이미지에 대해 표시할 가상 정보의 표시 범위(또는 정보의 양)를 설정하는 사용자 입력을 수신할 수 있다.
터치스크린(130)은 입력 기능과 표시 기능을 동시에 수행하는 입출력 수단으로, 표시부(131)와 터치감지부(133)를 포함할 수 있다. 특히, 본 발명의 실시 예에서 터치스크린(130)은 상기 표시부(131)를 통해 전자장치 운용에 따른 화면(예컨대, 어플리케이션의 실행화면(예컨대, 뷰 모드 화면), 통화 발신을 위한 화면, 메신저 화면, 게임 화면, 갤러리 화면 등) 표시 중에, 상기 터치감지부(133)에 의한 사용자의 터치 이벤트가 입력되면, 상기 터치 이벤트에 따른 입력신호를 상기 제어부(180)에게 전달할 수 있다. 그러면, 제어부(180)는 후술하는 바와 같이 상기 터치 이벤트를 구분하고, 터치 이벤트에 따른 동작 수행을 제어할 수 있다.
표시부(131)는 전자장치에서 처리되는 정보를 표시(출력)할 수 있다. 예를 들어, 전자장치가 통화모드인 경우 통화와 관련된 사용자 인터페이스(UI, User Interface) 또는 그래픽 사용자 인터페이스(GUI, Graphical UI)를 표시할 수 있다. 또한 표시부(131)는 전자장치가 화상통화 모드 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시할 수 있다. 특히, 표시부(131)는 증강 현실 어플리케이션 또는 카메라 어플리케이션의 실행에 대응하는 뷰 모드의 실행화면(예컨대, 현실 이미지가 프리뷰로 표시되는 화면)을 표시할 수 있다. 또한 표시부(131)는 상기 현실 이미지가 표시되는 화면 내에서 상기 현실 이미지에 매핑된 가상 정보를 해당 현실 이미지에 대응하는 가상 정보의 표시 범위(또는 정보의 양)에 따라 차등적으로 표시할 수 있다. 또한 표시부(131)는 전자장치의 회전 방향(또는 놓인 방향)에 따라 가로모드에 의한 화면 표시, 세로모드에 의한 화면 표시 및 가로모드와 세로모드 간의 변화에 따른 화면 전환 표시를 지원할 수 있다.
표시부(131)는 액정 디스플레이(LCD, Liquid Crystal Display), 박막 트랜지스터 액정 디스플레이(TFT LCD, Thin Film Transistor-LCD), 발광 다이오드(LED, Light Emitting Diode), 유기 발광 다이오드(OLED, Organic LED), 능동형 OLED(AMOLED, Active Matrix OLED), 플렉서블 디스플레이(flexible display), 벤디드 디스플레이(bended display), 그리고 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 이들 중 일부 디스플레이는 외부를 볼 수 있도록 투명형 또는 광투명형으로 구성되는 투명 디스플레이(transparent display)로 구현될 수 있다.
터치감지부(133)는 상기 표시부(131)에 안착될 수 있으며, 상기 터치스크린(130) 표면에 접촉하는 사용자의 터치 이벤트(예컨대, 싱글터치 이벤트, 멀티터치 이벤트, 터치 기반의 제스처 이벤트, 촬영 이벤트 등)를 감지할 수 있다. 터치감지부(133)는 상기 터치스크린(130) 표면에 사용자의 터치 이벤트를 감지할 시 상기 터치 이벤트가 발생된 좌표를 검출하고, 검출된 좌표를 상기 제어부(180)에게 전송할 수 있다. 터치감지부(133)는 사용자에 의해 발생되는 터치 이벤트를 감지하고, 감지된 터치 이벤트에 따른 신호를 생성하여 상기 제어부(180)에게 전송할 수 있다. 제어부(180)는 상기 터치감지부(133)에서 전송되는 신호에 의해 터치 이벤트가 발생된 영역에 해당하는 기능을 수행할 수 있다. 터치감지부(133)는 뷰 모드 진입을 위한 사용자 입력을 수신하고, 사용자 입력에 의해 발생되는 터치 이벤트에 따른 신호를 상기 제어부(180)에게 전송할 수 있다. 터치감지부(133)는 뷰 모드에서 현실 이미지에 대응하는 가상 정보의 중요도(또는 우선순위) 설정을 위한 사용자 입력을 수신하고, 사용자 입력에 의해 발생되는 터치 이벤트에 따른 신호를 상기 제어부(180)에게 전송할 수 있다. 예를 들어, 터치감지부(133)는 현실 이미지에 대해 표시할 가상 정보의 표시 범위(또는 정보의 양)를 설정하는 사용자 입력을 수신할 수 있다.
터치감지부(133)는 표시부(131)의 특정 부위에 가해진 압력 또는 표시부(131)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치감지부(133)는 터치되는 위치 및 면적뿐만 아니라, 적용한 터치 방식에 따라 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 터치감지부(133)에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기(미도시)로 전달될 수 있다. 터치 제어기(미도시)는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송할 수 있다. 이로써, 제어부(180)는 터치스크린(130)의 어느 영역이 터치되었는지 여부 등을 알 수 있다.
오디오 처리부(140)는 제어부(180)로부터 입력 받은 오디오 신호를 스피커(SPK, speaker)(141)로 전송하고, 마이크(MIC, microphone)(143)로부터 입력 받은 음성 등의 오디오 신호를 제어부(180)로 전달하는 기능을 수행할 수 있다. 오디오 처리부(140)는 음성/음향 데이터를 제어부(180)의 제어에 따라 스피커(141)를 통해 가청음으로 변환하여 출력하고 마이크(143)로부터 수신되는 음성 등의 오디오 신호를 디지털 신호로 변환하여 제어부(180)로 전달할 수 있다. 오디오 처리부(140)는 뷰 모드에서 현실 이미지에 대응하는 음성/음향 데이터를 제어부(180)의 제어에 따라 출력할 수 있고, 현실 이미지에 대응하는 가상 정보를 출력할 시 해당 가상 정보에 대응하는 음성/음향 데이터를 제어부(180)의 제어에 따라 출력할 수도 있다. 오디오 처리부(140)는 현실 이미지에 대해 표시할 가상 정보의 표시 범위(또는 정보의 양)를 설정 또는 표시를 명령하는 음성 데이터를 수신하여 제어부(180)로 전달할 수도 있다.
스피커(141)는 뷰 모드, 통화 모드, 문서 작성 모드, 메신저 모드, 녹음(녹화) 모드, 음성인식 모드, 방송수신 모드, 미디어 컨텐츠(음악 파일, 동영상 파일) 재생 모드, 그리고 촬영 모드 등에서 무선 통신부(110)로부터 수신되거나, 또는 저장부(150)에 저장된 오디오 데이터를 출력할 수 있다. 스피커(141)는 전자장치에서 수행되는 기능(예컨대, 뷰 모드 실행, 통화 연결 수신, 통화 연결 발신, 데이터 삽입, 촬영, 미디어 컨텐츠 재생 등)과 관련된 음향 신호를 출력할 수도 있다.
마이크(143)는 뷰 모드, 통화 모드, 문서 작성 모드, 메시지 모드, 메신저 모드, 녹음(녹화) 모드, 음성인식 모드, 그리고 촬영 모드 등에서 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리할 수 있다. 처리된 음성 데이터는 통화모드인 경우 이동통신 모듈(111)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(143)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
저장부(150)는 제어부(180)의 처리 및 제어를 위한 프로그램(program)을 저장할 수도 있고, 입/출력되는 데이터들(예컨대, 가상 정보, 컨택트(contact) 정보, 문서 데이터, 촬영 데이터, 메시지, 채팅 데이터, 미디어 컨텐츠(예컨대, 오디오, 동영상, 이미지) 등)의 임시 저장을 위한 기능을 수행할 수도 있다. 저장부(150)에는 전자장치의 기능 운용에 따른 사용 빈도(예컨대, 어플리케이션 사용빈도, 데이터 사용빈도, 검색어 사용빈도, 미디어 컨텐츠 사용빈도 등), 가상 정보의 표시 범위(또는 정보의 양)에 따른 중요도 및 우선순위도 함께 저장될 수 있다. 저장부(150)에는 터치스크린(130) 상의 터치 입력에 응답하여 출력되는 다양한 패턴(pattern)의 진동 및 음향에 관한 데이터를 저장할 수도 있다.
저장부(150)는 전자장치의 운영체제(OS, Operating System), 카메라 모듈(170)을 통해 입력된 현실 세계의 현실 이미지에 가상 정보를 매핑시켜 표시하는 제어 동작과 관련된 프로그램, 뷰 모드에서 현실 이미지에 오버랩 되어 표시되는 가상 정보의 표시 범위(정보의 양)를 결정하는 제어 동작과 관련된 프로그램, 가상 정보의 표시 범위(정보의 양)에 따른 중요도(우선순위)에 따라 가상 정보를 차등적으로 적용하여 표시하는 제어 동작과 관련된 프로그램, 그리고 터치스크린(130)을 이용한 입력 및 표시 제어 동작과 관련된 프로그램, 그리고 각 프로그램들의 동작에 의해 발생되는 데이터 등을 지속적으로 또는 일시적으로 저장할 수 있다. 또한 저장부(150)는 뷰 모드에서 현실 이미지에 가상 정보를 출력하는 것과 관련된 다양한 설정정보를 저장할 수 있다.
상기 설정정보는 뷰 모드에서 현실 이미지에 대응하여 표시되는 가상 정보의 표시 범위(정보의 양)에 따른 중요도(우선순위)와 관련된 정보를 포함할 수 있다. 또한 상기 설정정보는 현실 이미지에 가상 정보를 표시할 시 카메라 모듈(170)을 통해 획득하는 현실 이미지에 대한 처리 방식과 관련된 정보를 포함할 수 있다. 상기 처리 방식과 관련된 정보는 현실 이미지를 동일 레벨로 처리하거나, 현실 이미지의 각 오브젝트들마다 중요도(또는 우선순위)를 구분하여 차등 레벨로 처리하는 방식에 대한 정보를 포함할 수 있다. 또한, 상기 처리 방식과 관련된 정보는 현실 이미지를 동일 레벨로 처리하는 방식에서 현실 이미지의 오브젝트의 수에 따라 표시할 가상 정보의 표시 범위(또는 우선순위)와 관련된 정보를 포함할 수 있고, 현실 이미지를 차등 레벨로 처리하는 방식에서 현실 이미지의 오브젝트의 중요도(우선순위)에 따라 오브젝트 별 가상 정보의 표시 범위(또는 우선순위)와 관련된 정보를 포함할 수 있다. 이와 같이, 저장부(150)는 본 발명의 뷰 모드에서 정보를 차등 표시하기 위한 동작과 관련된 다양한 정보를 저장할 수 있다. 이러한 예시가 아래의 <표 1>, <표 2>, <표 3> 및 <표 4>와 같이 나타낼 수 있다.
Figure pat00001
상기 <표 1>에 나타낸 바와 같이, 본 발명의 실시 예에서는 현실 이미지에 대한 분류 또는 속성을 화면에 표시되는 현실 이미지의 각각의 오브젝트를 동일하게 처리하는 방식과, 화면에 표시되는 현실 이미지의 각각의 오브젝트를 차등하게 처리하는 방식에 따라 구분할 수 있다. 또한 전자의 처리 방식의 경우, 세부 분류(예컨대, 상황 분류)로서 오브젝트의 수에 따라 구분될 수 있다. 예를 들어, 화면에 표시되는 오브젝트가 적은 경우, 화면에 표시되는 오브젝트가 보통인 경우, 그리고 화면에 표시되는 오브젝트가 많은 경우로 구분될 수 있다. 또한 전자의 처리 방식의 경우, 상황 분류에 준하여 중요도를 중요도 '상', '중', '하'와 같이 구분할 수 있다. 본 발명의 실시 예에서는 3단계로 상황을 분류하는 것을 예시로 하지만, 본 발명이 이에 한정되는 것은 아니며 이보다 많은 또는 이보다 적은 단계로 구분될 수 있다.
또한 후자의 처리 방식의 경우, 세부 분류(예컨대, 상황 분류)로서, 오브젝트의 크기, 전자장치와 오브젝트 간의 거리 또는 오브젝트 제공 시기(또는 화면에 표시되는 시기) 등을 고려하여 구분될 수 있다. 예를 들어, 화면에 크게 보이는 오브젝트, 전자장치와 가까이 위치한 오브젝트 또는 아주 최근의 오브젝트(예컨대, today) 등과 같은 제1분류; 화면에 중간 크기로 보이는 오브젝트, 전자장치와 보통의 거리에 위치한 오브젝트 또는 최근의 오브젝트(예컨대, this week, this month) 등과 같은 제2분류; 그리고 화면에 작게 보이는 오브젝트, 전자장치와 먼 거리에 위치한 오브젝트 또는 예전의 오브젝트(예컨대, last year, 5 years) 등과 같은 제3분류로 구분될 수 있다.
또한 후자의 처리 방식의 경우에서도, 상황 분류에 준하여 중요도 '상', '중', '하'와 같이 구분할 수 있다. 본 발명의 실시 예에서는 3단계로 상황을 분류하는 것을 예시로 하지만, 본 발명이 이에 한정되는 것은 아니며 이보다 많은 또는 이보다 적은 단계로 구분될 수 있다.
Figure pat00002
상기 <표 2>에 나타낸 바와 같이, 본 발명의 실시 예에서, 가상 정보의 속성은 현실 이미지의 분류(예컨대, 인물, 배경, 물체 등)에 대응하여 컨택트 정보, 어트랙트 스폿 정보, 그리고 SNS/NEWS 정보 등으로 분류될 수 있다. 본 발명의 실시 예에서는 가상 정보로서 컨택트 정보, 어트랙트 스폿 정보, 그리고 SNS/NEWS 정보를 예시로 나타내었으나, 이러한 정보들 외에 증강 현실을 통해 제공될 수 있는 다양한 정보들이 본 발명에 포함될 수 있다. 또한 본 발명의 실시 예에서 가상 정보의 중요도는 '상', '중', '하'와 같이 3단계로 분류하는 것을 예시로 하지만, 본 발명의 가상 정보의 중요도는 2단계 이상으로 다양하게 구현될 수 있다.
예를 들어, 컨택트 정보를 참조하여 살펴보면, 컨택트 정보를 구성하는 다양한 필드(field)들 중 "Name, Mobile number"가 중요도 '상'으로 설정될 수 있고, "Office number, Ring-tone set"이 중요도 '중'으로 설정될 수 있고, "Email, Nickname"를 비롯한 추가적인 다른 필드들(예컨대, Address, Notes, Website, Events, Relationship 등)이 중요도 '하'로 설정될 수 있다. 또한 어트랙트 정보를 참조하여 살펴보면, "Attract name, image"가 중요도 '상'으로 설정될 수 있고, "how far from here?"가 중요도 '중'으로 설정될 수 있고, "Review of attract"가 중요도 '하'로 설정될 수 있다. 또한 SNS/NEWS 정보를 참조하여 살펴보면, "SNS user, Title"중요도 '상'으로 설정될 수 있고, "Sub title, image, source"가 중요도 '중'으로 설정될 수 있고, "Body text, related links"가 중요도 '하'로 설정될 수 있다. 이러한 가상 정보의 중요도 분류는 전자장치 제공 시 기본적으로 설정되어 제공될 수 있고, 중요도 별 항목은 사용자 설정에 따라 수정, 추가 또는 삭제될 수도 있다. 그리고 본 발명의 실시 예에서 특정 피사체의 현실 이미지와 그에 따른 가상 정보를 분류하는 범주를 한정하지 않으며, 현실 이미지와 가상 정보를 각각 분류하고 이를 매핑시켜 정보 전달 시 사용자의 시각적 효율성을 극대화 시킬 수 있는 다양한 응용들을 포함할 수 있다.
Figure pat00003
상기 <표 3>에 나타낸 바와 같이, 현실 이미지 각각의 오브젝트를 동일하게 처리하는 방식에서는 화면에 표시되는 오브젝트가 적은 경우, 화면에 표시되는 오브젝트가 보통인 경우, 화면에 표시되는 오브젝트가 많은 경우와 같이 화면에 보이는 오브젝트의 수에 대응하여 오브젝트의 중요도가 구분될 수 있다. 그리고 오브젝트의 중요도(예컨대, 오브젝트의 수)에 따른 가상 정보의 중요도(예컨대, 가상 정보의 표시 범위(또는 정보의 양))가 차등 적용되어 표시될 수 있다.
예를 들어, 화면에 표시되는 오브젝트의 수가 적은 경우 많은 정보를 표시할 수 있기 때문에 중요도가 높은 정보부터 중요도가 낮은 정보까지 모두를 표시할 수 있다. 이러한 동작 예시가 후술하는 도면(예컨대, 도 3a)에 나타나 있다.
또한 화면에 표시되는 오브젝트의 수가 보통인 경우 모든 정보를 표시하는 경우 가상 정보를 표시하기 위한 버블 윈도우(bubble window)가 서로 간에 겹쳐지는 현상이 발생할 수 있고, 이로 인해 오브젝트 및 해당 가상 정보를 제대로 표시할 수 없기 때문에 중요도가 낮은 정보를 제외하고 표시할 수 있다. 이러한 동작 예시가 후술하는 도면(예컨대, 도 3b)에 나타나 있다.
또한 화면에 표시되는 오브젝트의 수가 많은 경우 최소한의 정보, 즉 가장 중요한 정보만을 표시할 수 있다. 이러한 동작 예시가 후술하는 도면(예컨대, 도 3c)에 나타나 있다.
Figure pat00004
상기 <표 4>에 나타낸 바와 같이, 현실 이미지 각각의 오브젝트를 차등하게 처리하는 방식에서는 크게 보이는 오브젝트, 중간 크기로 보이는 오브젝트, 작게 보이는 오브젝트와 같이 화면에 보이는 오브젝트의 크기에 대응하여 오브젝트의 중요도가 구분될 수 있다. 또는 가까이 위치한 오브젝트, 보통의 거리에 위치한 오브젝트, 먼 거리에 위치한 오브젝트와 같이 전자장치와 오브젝트 간의 거리(예컨대, 화면에서 보이는 원근감에 따른 분류)에 대응하여 오브젝트의 중요도가 구분될 수 있다. 또는 아주 최근의 오브젝트, 최근의 오브젝트, 예전의 오브젝트와 같이 오브젝트가 제공되는 시기(또는 화면에 표시되는 시기 등)에 대응하여 오브젝트의 중요도가 구분될 수 있다. 그리고 오브젝트의 중요도(예컨대, 오브젝트의 크기, 오브젝트의 거리, 오브젝트의 제공 시기)에 따른 가상 정보의 중요도(예컨대, 가상 정보의 표시 범위(또는 정보의 양))가 차등 적용되어 표시될 수 있다.
예를 들어, 화면에 표시되는 오브젝트들 중 크게 보이는 오브젝트, 가까이 위치한 오브젝트, 또는 아주 최근의 오브젝트에 대해서는 중요도가 높은 정보부터 중요도가 낮은 정보까지 모두를 표시할 수 있다. 예컨대, 화면에 표시되는 오브젝트들 중 중요도가 높은 오브젝트에 대해서는 중요도 '상'의 범주에 속한 정보부터 중요도 '하'의 범주에 속한 정보까지 모두 표시될 수 있다. 이러한 동작 예시가 후술하는 도면(예컨대, 도 5 및 도 6)에 나타나 있다.
또한 화면에 표시되는 오브젝트들 중 중간 크기로 보이는 오브젝트, 보통의 거리에 위치한 오브젝트, 또는 최근의 오브젝트에 대해서는 중요도가 낮은 정보를 제외하고 표시할 수 있다. 예컨대, 화면에 표시되는 오브젝트들 중 중요도가 보통인 오브젝트에 대해서는 중요도 '하'의 범주에 속한 정보는 제외하고, 중요도 '상' 및 중요도 '중'의 범주에 속한 정보가 표시될 수 있다. 이러한 동작 예시가 후술하는 도면(예컨대, 도 5 및 도 6)에 나타나 있다.
또한 화면에 표시되는 오브젝트들 중 작게 보이는 오브젝트, 먼 거리에 위치한 오브젝트, 예전의 오브젝트에 대해서는 최소한의 정보, 즉 가장 중요한 정보만을 표시할 수 있다. 예컨대, 화면에 표시되는 오브젝트들 중 중요도가 낮은 오브젝트에 대해서는 중요도 '상'의 범주에 속한 정보만이 표시될 수 있다. 이러한 동작 예시가 후술하는 도면(예컨대, 도 5 및 도 6)에 나타나 있다.
저장부(150)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 마이크로 타입(micro type), 및 카드 타입(예컨대, SD 카드(Secure Digital Card) 또는 XD 카드(eXtream Digital Card)) 등의 메모리와, 디램(DRAM, Dynamic Random Access Memory), SRAM(Static RAM), 롬(ROM, Read-Only Memory), PROM(Programmable ROM), EEPROM(Electrically Erasable PROM), 자기 메모리(MRAM, Magnetic RAM), 자기 디스크(magnetic disk), 및 광디스크(optical disk) 타입의 메모리 중 적어도 하나의 타입의 저장 매체(storage medium)를 포함할 수 있다. 전자장치는 인터넷 상에서 상기 저장부(150)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
인터페이스부(160)는 전자장치에 연결되는 모든 외부 기기와의 통로 역할을 수행할 수 있다. 인터페이스부(160)는 외부 기기로부터 데이터를 전송 받거나 전원을 공급받아 전자장치 내부의 각 구성 요소에 전달하거나, 전자장치 내부의 데이터가 외부 기기로 전송되도록 할 수 있다. 예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 입/출력(Input/Output) 포트, 비디오 입/출력 포트, 이어폰 포트 등이 인터페이스부(160)에 포함될 수 있다.
카메라 모듈(170)은 전자장치의 촬영 기능을 지원하는 구성을 나타낸다. 카메라 모듈(170)은 피사체의 정지영상 및 동영상 촬영을 지원할 수 있다. 카메라 모듈(170)은 제어부(180)의 제어에 따라 임의의 피사체를 촬영하고, 촬영된 데이터를 표시부(131) 및 제어부(180)로 전달할 수 있다. 카메라 모듈(170)은 입력된 광 신호를 전기적 신호로 변환하는 이미지 센서(또는 카메라 센서)(미도시)와, 상기 이미지 센서로부터 입력되는 전기적 신호를 디지털 영상 데이터로 변환하는 이미지 신호 처리부(미도시) 등을 포함하여 구성될 수 있다. 상기 이미지 센서는 CCD(Charge-coupled Device) 또는 CMOS(Complementary Metal-Oxide-Semiconductor) 등의 방식을 이용하는 센서를 포함할 수 있다. 카메라 모듈(170)은 사용자 설정에 따른 다양한 촬영 옵션(예컨대, 주밍(zooming), 화면 비율, 효과(effect)(예컨대, 스케치, 모노, 세피아, 빈티지, 모자이크 등), 액자 등)에 따른 촬영을 지원하기 위한 이미지 처리 기능을 지원할 수 있다. 카메라 모듈(170)은 본 발명의 실시 예에 따른 뷰 모드에서 현실 세계의 피사체에 대응하는 현실 이미지를 획득하여 표시부(131) 및 제어부(180)로 전달할 수 있다.
제어부(180)는 전자장치의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어부(180)는 음성 통신, 데이터 통신, 화상 통신 등에 관련된 제어를 수행할 수 있다. 제어부(180)는 본 발명의 뷰 모드에서 현실 세계의 현실 이미지에 가상 정보를 매핑시켜 표시하는 기능과 관련된 동작을 처리하는 데이터 처리 모듈(182)을 구비할 수도 있다. 본 발명에서 데이터 처리 모듈(182)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다. 본 발명의 다양한 실시 예에서, 데이터 처리 모듈(182)은 현실 이미지 표시 모듈(184), 정보 처리 모듈(186), 그리고 정보 표시 모듈(188)을 포함할 수 있다. 상기 현실 이미지 표시 모듈(184), 정보 처리 모듈(186), 그리고 정보 표시 모듈(188)에 관한 추가적인 정보는 아래에서 제공된다.
제어부(180)(예컨대, 현실 이미지 표시 모듈(184))는 뷰 모드에 따른 화면 표시를 제어할 수 있다. 예를 들어, 제어부(180)(예컨대, 현실 이미지 표시 모듈(184))는 특정 어플리케이션(예컨대, 문서 편집기, 이메일 편집기, 또는 웹 브라우저 등)을 실행하여 해당 어플리케이션의 실행화면을 표시하는 중에 뷰 모드 실행을 위한 사용자 입력에 응답하여 뷰 모드에 따른 화면(예컨대, 현실 이미지 프리뷰 화면) 표시를 제어할 수 있다.
제어부(180)(예컨대, 정보 처리 모듈(186))는 상기 뷰 모드에 따른 현실 이미지를 표시하는 시점에서 상기 현실 이미지에 포함된 오브젝트 추출 및 그를 분석하는 동작을 수행할 수 있다. 그리고 제어부(180)(예컨대, 정보 처리 모듈(186))는 현실 이미지의 오브젝트들에 대한 가상 정보를 표시하기 위한 처리 방식을 결정할 수 있다. 예를 들어, 제어부(180)(예컨대, 정보 처리 모듈(186))는 상기 저장부(150)에 미리 설정된 설정정보를 참조하여 처리 방식이 현실 이미지의 오브젝트마다 동일 레벨의 가상 정보를 표시하는 방식인지, 또는 현실 이미지의 오브젝트마다 차등 레벨의 가상 정보를 표시하는 방식인지 결정할 수 있다.
제어부(180)(예컨대, 정보 처리 모듈(186))는 오브젝트 별로 동일 레벨의 가상 정보를 표시하는 방식에서, 현실 이미지의 오브젝트 중요도(예컨대, 오브젝트의 수)에 대응하여 가상 정보의 표시 범위(또는 정보의 양)를 산출할 수 있다. 또한 제어부(180)(예컨대, 정보 처리 모듈(186))는 오브젝트 별로 차등 레벨의 가상 정보를 표시하는 방식에서, 현실 이미지의 오브젝트 중요도(예컨대, 오브젝트 크기, 오브젝트 거리, 오브젝트 제공 시기 등)에 대응하여 가상 정보의 표시 범위(또는 정보의 양)를 산출할 수 있다.
제어부(180)(예컨대, 정보 표시 모듈(188))는 산출된 가상 정보의 표시 범위를 이용하여 현실 이미지의 오브젝트 별로 가상 정보를 매핑하고, 해당 오브젝트 별로 매핑된 가상 정보가 오버랩되어 표시되도록 처리할 수 있다.
이러한 제어부(180)의 상세 제어 동작에 대해 후술하는 도면들을 참조한 전자장치의 동작 예시 및 그의 제어 방법에서 설명될 것이다.
그리고 본 발명의 실시 예에 따른 제어부(180)는 상기의 기능 외에 전자장치의 통상적인 기능과 관련된 각종 동작을 제어할 수 있다. 예를 들어, 제어부(180)는 특정 어플리케이션 실행 시 그의 운용 및 화면 표시를 제어할 수 있다. 또한 제어부(180)는 터치 기반의 입력 인터페이스(예컨대, 터치스크린(130))에서 지원하는 다양한 터치 이벤트 입력에 대응하는 입력신호를 수신하고 그에 따른 기능 운용을 제어할 수 있다. 또한 제어부(180)는 유선통신 기반 또는 무선통신 기반으로 각종 데이터의 송수신을 제어할 수도 있다.
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성 요소들의 동작에 필요한 전원을 공급할 수 있다.
이상에서 살펴본 바와 같이, 본 발명의 다양한 실시 예에 따른 전자장치는, 뷰 모드에서 획득되는 현실 이미지를 표시하기 위한 컴퓨터에 의해 실행되는(computer-implemented) 현실 이미지 표시 모듈(184), 상기 현실 이미지에 따른 오브젝트의 중요도에 따라 오브젝트별 가상 정보의 표시 범위를 결정하기 위한 컴퓨터에 의해 실행되는 정보 처리 모듈(186), 그리고 오브젝트별 가상 정보를 각각의 오브젝트에 매핑시켜 표시하기 위한 컴퓨터에 의해 실행되는 정보 표시 모듈(188)에 의해 구현될 수 있다. 본 발명의 다양한 실시 예에서 상기 정보 처리 모듈(186)은 현실 이미지의 오브젝트의 중요도를 분석하고, 분석된 중요도에 따라 각 오브젝트에 대응되는 가상 정보의 표시 범위를 차등적으로 결정하도록 동작할 수 있다. 본 발명의 다양한 실시 예에서 상기 오브젝트의 중요도는 앞서 살펴본 바와 같이 오브젝트의 수, 오브젝트의 크기, 오브젝트의 거리, 오브젝트의 제공 시기, 오브젝트의 표시 시기 등에 따라 다양하기 분류될 수 있다. 예를 들어, 본 발명의 다양한 실시 예에서 상기 정보 처리 모듈(186)은 현실 이미지 내의 오브젝트의 중요도(예컨대, 오브젝트의 수)에 따라 오브젝트마다 동일 레벨로 적용되는 가상 정보의 표시 범위를 결정하고, 결정된 가상 정보의 표시 범위 내의 가상 정보를 각 오브젝트에 매핑하여 표시하도록 동작할 수 있다. 본 발명의 다양한 실시 예에서 상기 정보 처리 모듈(186)은 현실 이미지 내의 오브젝트의 중요도(예컨대, 오브젝트의 크기, 오브젝트의 거리, 오브젝트의 제공 시기, 또는 오브젝트의 표시 시기)에 따라 오브젝트마다 차등 레벨로 적용되는 각각의 가상 정보의 표시 범위를 결정하고, 결정된 가상 정보의 표시 범위 내의 가상 정보를 각 오브젝트에 매핑하여 표시하도록 동작할 수 있다.
이상에서 살펴본 바와 같은, 본 발명의 다양한 실시 예에 따른 전자장치는 본 발명의 기능을 지원하는 모든 정보통신기기, 멀티미디어기기 및 그에 대한 응용기기와 같이 AP(Application Processor), GPU(Graphic Processing Unit), CPU(Central Processing Unit)를 사용하는 모든 디바이스를 포함할 수 있다. 예를 들어, 상기 전자장치는 다양한 통신 시스템에 대응되는 각 통신 프로토콜들(communication protocols)에 의거하여 동작하는 이동통신 단말기를 비롯하여, 태블릿(tablet) PC(Personal Computer), 스마트 폰(Smart Phone), PMP(Portable Multimedia Player), 미디어 플레이어(Media Player)(예컨대, MP3 플레이어), 휴대게임단말, 및 PDA(Personal Digital Assistant) 등의 디바이스를 포함할 수 있다. 아울러, 본 발명의 다양한 실시 예에 따른 기능 제어 방법은 디지털 TV(Digital Television), DS(Digital Signage), LFD(Large Format Display) 등과 같이 다양한 디스플레이 디바이스, 노트북 등과 같은 랩탑 컴퓨터 및 개인용 컴퓨터(PC) 등에 적용되어 운용될 수도 있다.
그리고 본 발명에서 설명되는 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 하드웨어적인 구현에 의하면, 본 발명에서 설명되는 실시 예들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다.
그리고 일부의 경우에 본 명세서에서 설명되는 실시 예들이 제어부(180) 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들(예컨대, 현실 이미지 표시 모듈(184), 정보 처리 모듈(186) 또는 정보 표시 모듈(188))로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.
여기서, 상기 기록 매체는 뷰 모드에서 획득되는 현실 이미지를 표시하는 동작, 상기 현실 이미지에 따른 오브젝트의 중요도에 따라 오브젝트별 가상 정보의 표시 범위를 결정하는 동작, 그리고 오브젝트별 가상 정보를 각각의 오브젝트에 매핑시켜 표시하는 동작을 수행하는 프로그램을 저장한 컴퓨터로 읽을 수 있는 기록 매체를 포함할 수 있다.
도 2는 본 발명의 실시 예에 따른 전자장치에서 가상 정보를 제공하는 방법을 도시한 흐름도이다.
상기 도 2를 참조하면, 제어부(180)는 뷰 모드를 실행하고(201단계), 상기 뷰 모드 실행에 따른 현실 이미지 표시를 제어할 수 있다(203단계). 예를 들어, 제어부(180)는 사용자로부터 요청되는 증강 현실 어플리케이션 또는 카메라 어플리케이션을 실행하고, 그에 따라 카메라 모듈(170)을 구동할 수 있다. 그리고 제어부(180)는 실행하는 어플리케이션과 관련된 뷰 모드에서 상기 카메라 모듈(170)을 통해 획득되는 현실 세계의 피사체에 대응하는 현실 이미지가 프리뷰로 제공되는 화면 표시를 제어할 수 있다.
제어부(180)는 상기 현실 이미지를 표시하는 시점에서 상기 현실 이미지를 분석할 수 있다(205단계). 예를 들어, 제어부(180)는 현실 이미지를 구성하는 오브젝트를 추출하고, 추출된 오브젝트를 기반으로 현실 이미지의 분류(또는 속성)를 분석할 수 있다. 예컨대, 제어부(180)는 현실 이미지가 인물, 건물, 또는 물체 등과 같은 유형 중 어떠한 유형에 관계된 이미지인지, 또는 위치 기반의 서비스로 제공되는 무형의 공간(또는 스폿) 등의 무형에 관계된 이미지인지 구분할 수 있다. 그리고 제어부(180)는 해당 현실 이미지의 분류(또는 속성)에서 어느 정도의 복잡도(예컨대, 오브젝트의 수, 오브젝트의 중요도 등)를 가지는지 판단할 수 있다.
제어부(180)는 분석된 현실 이미지에 대응하여 오버랩으로 표시할 가상 정보의 표시 범위(또는 정보의 양)를 결정할 수 있다(207단계). 예를 들어, 제어부(180)는 가상 정보를 표시하는 처리 방식을 결정할 수 있고, 상기 현실 이미지의 분류와 상기 처리 방식에 대응하여 가상 정보의 표시 범위를 결정할 수 있다. 예컨대, 제어부(180)는 처리 방식이 현실 이미지의 오브젝트마다 동일 레벨의 가상 정보를 표시하는 방식인지, 또는 처리 방식이 현실 이미지의 오브젝트마다 차등 레벨의 가상 정보를 표시하는 방식인지 결정할 수 있다. 그리고 제어부(180)는 결정된 처리 방식에 기초하여 현실 이미지 상에 가상 정보를 오버랩하여 표시하되, 현실 이미지를 구성하는 오브젝트마다 동일 레벨의 가상 정보를 매핑하거나, 또는 오브젝트마다 차등 레벨의 가상 정보를 매핑할 수 있다. 이러한 예시에 대해 앞서 <표 1> 내지 <표 4>를 참조하여 설명하였다.
제어부(180)는 상기 현실 이미지에 대응하게 가상 정보가 오버랩되어 표시되도록 제어할 수 있다(209단계). 예를 들어, 제어부(180)는 상기 결정된 가상 정보의 표시 범위에 따라 상기 현실 이미지의 오브젝트마다 동일 레벨의 가상 정보를 표시하거나, 또는 현실 이미지의 오브젝트마다 차등 레벨의 가상 정보를 표시할 수 있다. 예컨대, 처리 방식이 동일 레벨에 의한 처리 방식이고, 현실 이미지에 대한 가상 정보의 표시 범위가 중요도 '하'에 대응하는 것으로 결정할 시, 현실 이미지의 각 오브젝트에 대해 중요도 '하'의 범주에 속하는 가상 정보를 표시할 수 있다. 이에 대한 동작 예시가 아래의 도면들 예컨대, 도 3a 내지 도 3c 또는 도 4a 및 도 4b에서 제공된다. 또한 처리 방식이 차등 레벨에 의한 처리 방식인 경우 현실 이미지의 각 오브젝트에 대한 가상 정보의 표시 범위를 차등 적용하여 결정하고, 현실 이미지의 각 오브젝트마다 중요도 '상, 중, 하'의 범주에 속하는 가상 정보를 차등적으로 표시할 수 있다. 이에 대한 동작 예시가 아래의 도면들 예컨대, 도 5 내지 도 7에서 제공된다.
도 3a 내지 도 3c는 본 발명의 실시 예에 따른 전자장치에서 현실 이미지가 동일 레벨로 처리되는 경우의 동작 예시를 도시한 도면들이다.
상기 도 3a 내지 도 3c는 본 발명의 다양한 실시 예에 대해 살펴본 바와 같이, 화면에 표시되는 현실 이미지의 각각의 오브젝트에 대응하는 가상 정보를 동일 레벨의 가상 정보의 표시 범위(또는 정보의 양)에 따라 균등하게 표시하되, 오브젝트의 수에 따라 표시되는 가상 정보의 표시 범위가 차등적으로 표시되는 경우의 동작 예시를 나타낸 것이다. 이러한 가상 정보의 표시 범위가 차등 적용되는 동작 예시는 앞서 <표 1> 내지 <표 4>를 참조한 설명 부분에서 설명한 바와 같다.
상기 도 3a 내지 도 3c를 참조하면, 상기 도 3a는 뷰 모드에서 카메라 모듈(170)을 통해 획득되는 피사체의 현실 이미지가 하나의 인물 오브젝트인 경우의 전자장치의 화면 예시를 나타내고, 도 3b는 뷰 모드에서 카메라 모듈(170)을 통해 획득되는 피사체의 현실 이미지가 2개의 인물 오브젝트들인 경우의 전자장치의 화면 예시를 나타내며, 그리고 도 3c는 뷰 모드에서 카메라 모듈(170)을 통해 획득되는 피사체의 현실 이미지가 3개의 인물 오브젝트들인 경우의 전자장치의 화면 예시를 나타낸 것이다.
또한 상기 도 3a 내지 도 3c에서는 인물 오브젝트에 대응되는 가상 정보의 속성이 컨택트 정보를 기반으로 하고, 상기 컨택트 정보를 구성하는 다양한 필드(field)들이 앞서 <표 2>에서 참조된 바와 같은 중요도(우선순위)로 구분되는 것을 가정할 수 있다.
상기 도 3a에 도시된 바와 같이, 뷰 모드 실행에 응답하여 오브젝트에 가상 정보가 매핑되어 표시될 수 있다. 상기 가상 정보는 앞서 살펴본 바와 같은 <표 3>을 참조할 때 중요도가 높은 정보부터 낮은 정보 모두를 포함하여 표시될 수 있다. 이러한 가상 정보는 다양한 말풍선(speech bubble) 형태에 대응하는 특정 버블 윈도우(bubble window)(300)를 통해 제공될 수 있다. 예를 들어, 상기 도 3a의 예시와 같이 인물 오브젝트에 오버랩되는 버블 윈도우(300)를 통해 상기 인물 오브젝트에 대한 가상 정보인 "Name(예: Jane), Mobile number(예: 010-1234-5678), Office number(예: 02-2255-0000), Birth.(예: Oct. 09 1982)"가 표시될 수 있다. 상기 도 3a와 같이 화면에 표시되는 오브젝트가 적은 경우 중요도 '상'의 범주에 속하는 정보부터 중요도 '하'의 범주에 속하는 정보까지 포함되어 제공될 수 있다.
상기 도 3b에 도시된 바와 같이, 뷰 모드 실행에 응답하여 오브젝트에 가상 정보가 매핑되어 표시될 수 있으며, 상기 도 3a의 화면 예시에 비해 증가된 인물 오브젝트에 대응하여 가상 정보의 표시 범위가 다르게 표시될 수 있다. 상기 가상 정보는 앞서 살펴본 바와 같은 <표 3>을 참조할 때 중요도가 낮은 정보는 제외하고 중요도가 높은 정보부터 보통 정보까지 포함하여 표시될 수 있다. 예를 들어, 상기 도 3b의 예시와 같이 인물 오브젝트에 오버랩되는 버블 윈도우(300)를 통해 각 인물 오브젝트들에 대응되는 가상 정보인 "Name(예: Lynn, Michael), Mobile number(예: 010-1234-0000, 010-1234-1234), Office number(예: 02-2255-1111, 02-2255-1234)"가 표시될 수 있다. 상기 도 3b와 같이 화면에 표시되는 오브젝트가 보통인 경우 중요도 '상'의 범주에 속하는 정보와 중요도 '중'의 범주에 속하는 정보까지 포함되어 제공될 수 있다.
상기 도 3c에 도시된 바와 같이, 뷰 모드 실행에 응답하여 오브젝트에 가상 정보가 매핑되어 표시될 수 있으며, 상기도 3b의 화면 예시에 비해 증가된 인물 오브젝트에 대응하여 가상 정보의 표시 범위가 다르게 표시될 수 있다. 상기 가상 정보는 앞서 살펴본 바와 같은 <표 3>을 참조할 때 중요도가 낮은 정보와 보통 정보는 제외하고 중요도가 높은 정보만을 포함하여 표시될 수 있다. 예를 들어, 상기 도 3c의 예시와 같이 인물 오브젝트에 오버랩되는 버블 윈도우(300)를 통해 각 인물 오브젝트들에 대응되는 가상 정보인 "Name(예: May, Lee, Kim), Mobile number(예: Phone)"가 표시될 수 있다. 상기 도 3c와 같이 화면에 표시되는 오브젝트가 많은 경우 중요도 '상'의 범주에 속하는 정보만이 포함되어 제공될 수 있다.
여기서, 상기 도 3c의 예시에서는 각 인물 오브젝트에 대응되는 가상 정보인 "Name(예: May, Lee, Kim)"을 표시하고, "Mobile number"를 생략하는 대신 "Phone"으로 대체하여 나타내었다. 상기 도 3c의 예시의 경우 각 인물 오브젝트들에 대응되는 각 버블 윈도우(300)가 겹쳐짐으로 인해 오브젝트 및 가상 정보가 직관적으로 표시되지 않는 사항을 방지하기 위한 것이다. 이를 위해, 각 인물 오브젝트에 매핑되는 "Mobile number"를 선택적으로 팝업(pop-up)으로 표시하거나, 또는 바로 통화를 실행할 수 있는 서브 아이템(350)(예: Phone)을 통해 중요도 '상'에 속하는 가상 정보인 "Mobile number"를 대체하여 제공할 수 있다. 하지만, 본 발명이 이에 한정되는 것은 아니며, 해당 가상 정보의 표시 범위에 속하는 모든 정보들을 표시할 수도 있음을 물론이다. 이러한 경우, 오브젝트들의 배치 상태를 파악하고, 오브젝트들의 배치에 따라 각 오브젝트들의 버블 윈도우(300)의 위치를 겹쳐지지 않도록 적절하게 배치되어 제공될 수 있다.
도 4a 및 도 4b는 본 발명의 실시 예에 따른 전자장치에서 현실 이미지가 동일 레벨로 처리되는 경우의 동작 예시를 도시한 도면들이다.
상기 도 4a 및 도 4b는 본 발명의 다양한 실시 예에 대해 살펴본 바와 같이, 화면에 표시되는 현실 이미지의 각각의 오브젝트에 대응하는 가상 정보를 동일 레벨의 가상 정보의 표시 범위(또는 정보의 양)에 따라 균등하게 표시하되, 오브젝트의 수에 따라 표시되는 가상 정보의 표시 범위가 차등적으로 표시되는 경우의 다른 동작 예시를 나타낸 것이다. 이러한 가상 정보의 표시 범위가 차등 적용되는 동작 예시는 앞서 <표 1> 내지 <표 4>를 참조한 설명 부분에서 설명한 바와 같다.
상기 도 4a 및 도 4b를 참조하면, 상기 도 4a는 뷰 모드에서 카메라 모듈(170)을 통해 획득되는 피사체의 현실 이미지가 소정 개수(예컨대, 2개)의 건물 오브젝트들인 경우의 전자장치의 화면 예시를 나타내고, 상기 도 4b는 뷰 모드에서 카메라 모듈(170)을 통해 획득되는 피사체의 현실 이미지가 도 4a의 경우보다 많은(예컨대, 5개)의 건물 오브젝트들인 경우의 전자장치의 화면 예시를 나타낸 것이다.
또한 상기 도 4a 및 도 4b에서는 건물 오브젝트에 대응되는 가상 정보의 속성이 어트랙트 스폿(attract spot) 정보(예컨대, 호텔 정보)를 기반으로 하고, 상기 어트랙트 스폿을 구성하는 다양한 정보들이 A(예: 호텔 이름), B(예: 숙박비용), C(예: 거리), D(예: 전화번호), E(예: 웹페이지), F(예: 리뷰) 등으로 구분되는 것을 가정할 수 있다. 여기서, 상기한 가상 정보들 A 내지 F 중 A 내지 C가 중요도 '상'의 범주에 속하고, D 내지 E가 중요도 '중'의 범주에 속하고, F가 중요도 '하'의 범주에 속하는 것을 가정할 수 있다.
상기 도 4a에 도시된 바와 같이, 뷰 모드 실행에 응답하여 오브젝트에 가상 정보가 매핑되어 표시될 수 있다. 상기 가상 정보는 중요도가 높은 정보부터 낮은 정보 모두를 포함하여 표시될 수 있다. 예를 들어, 상기 도 4a의 예시와 같이 건물 오브젝트(예컨대, 호텔 오브젝트)에 오버랩되는 버블 윈도우(300)를 통해 각 건물 오브젝트들에 대응되는 가상 정보인 "A(예: 호텔 이름), B(예: 숙박비용), C(예: 거리), D(예: 전화번호), E(예: 웹페이지), F(예: 리뷰)"가 표시될 수 있다. 상기 도 4a와 같이 화면에 표시되는 오브젝트가 적은 경우 중요도 '상'의 범주에 속하는 정보부터 중요도 '하'의 범주에 속하는 정보까지 포함되어 제공될 수 있다.
상기 도 4b에 도시된 바와 같이, 뷰 모드 실행에 응답하여 오브젝트에 가상 정보가 매핑되어 표시될 수 있으며, 상기 도 4a의 화면 예시에 비해 증가된 건물 오브젝트(예컨대, 호텔 오브젝트)에 대응하여 가상 정보의 표시 범위가 다르게 표시될 수 있다. 상기 가상 정보는 중요도가 낮은 정보와 보통 정보는 제외하고 중요도가 높은 정보만을 포함하여 표시될 수 있다. 예를 들어, 상기 도 4b의 예시와 같이 건물 오브젝트에 오버랩되는 버블 윈도우(300)를 통해 각 건물 오브젝트들에 대응되는 가상 정보인 "A(예: 호텔 이름), B(예: 숙박비용), C(예: 거리)"가 표시될 수 있다. 상기 도 4b와 같이 화면에 표시되는 오브젝트가 많은 경우 중요도 '상'의 범주에 속하는 정보만이 포함되어 제공될 수 있다.
도 5 및 도 6은 본 발명의 실시 예에 따른 전자장치에서 현실 이미지가 차등 레벨로 처리되는 경우의 동작 예시를 도시한 도면들이다.
상기 도 5 및 도 6은 본 발명의 다양한 실시 예에 대해 살펴본 바와 같이, 화면에 표시되는 현실 이미지의 각각의 오브젝트에 대응하는 가상 정보를 차등 레벨의 가상 정보의 표시 범위(또는 정보의 양)에 따라 차등하게 표시하되, 오브젝트의 중요도(예컨대, 거리)에 따라 표시되는 가상 정보의 표시 범위가 차등적으로 표시되는 경우의 동작 예시를 나타낸 것이다. 이러한 가상 정보의 표시 범위가 차등 적용되는 동작 예시는 앞서 <표 1> 내지 <표 4>를 참조한 설명 부분에서 설명한 바와 같다.
상기 도 5 및 도 6을 참조하면, 상기 도 5는 뷰 모드에서 카메라 모듈(170)을 통해 획득되는 피사체의 현실 이미지가 복수의 인물 오브젝트인 경우의 전자장치의 화면 예시를 나타내고, 상기 도 6은 뷰 모드에서 카메라 모듈(170)을 통해 획득되는 피사체의 현실 이미지가 복수의 건물 오브젝트(예컨대, 호텔 오브젝트)인 경우의 전자장치의 화면 예시를 나타낸 것이다.
상기 도 5 및 도 6에 도시된 바와 같이, 뷰 모드 실행에 응답하여 오브젝트에 가상 정보가 매핑되어 표시될 수 있다. 상기 가상 정보는 오브젝트의 중요도에 따라 오브젝트 별로 차등 적용되어 표시될 수 있다. 상기 도 5 및 도 6의 예시와 같이 각 오브젝트에 오버랩되는 버블 윈도우(300)를 통해 각 오브젝트들 별로 가상 정보의 표시 범위(또는 정보의 양)가 차등적으로 표시될 수 있다.
상기 도 5에서는 인물 오브젝트에 대응되는 가상 정보의 속성이 컨택트 정보의 다양한 필드를 기반으로 하는 "Name, Mobile number, Office number, Email, Ring-tone, Events" 등으로 구분되는 것을 가정할 수 있다. 여기서, 상기 도 5에서는 상기한 가상 정보들 중 Name, Mobile number가 중요도 '상'의 범주에 속하고, Office number, Email이 중요도 '중'의 범주에 속하고, Ring-tone, Events가 중요도 '하'의 범주에 속하는 것을 가정할 수 있다.
예를 들어, 인물 오브젝트들 중 전자장치와 가장 가까이 위치한(또는 가장 근접된, 화면에서 가장 크게 보이는 등) 오브젝트(예컨대, Jane 오브젝트)의 경우 해당 오브젝트에 대응되는 가상 정보인 "Name(예: Jane), Mobile number(예: 010-2345-6789), Office number(예: 02-2255-0000), Email: Jane@office.com, Ringtone: Waterfall, Events: 09/Oct/1982"가 표시될 수 있다. 또한 인물 오브젝트들 중 전자장치와 보통의 거리에 위치한(또는 보통으로 근접된, 화면에서 중간 크기로 보이는 등) 오브젝트(예컨대, John 오브젝트)의 경우 해당 오브젝트에 대응하는 가상 정보인 "Name(예: John), Mobile number(예: 010-2345-9876), Office number(예: 02-2255-9876), Email: John@office.com"가 표시될 수 있다. 또한 인물 오브젝트들 중 전자장치와 먼 거리에 위치한(또는 화면에서 작게 보이는 등) 오브젝트(예컨대, Lynn 오브젝트)의 경우 해당 오브젝트에 대응되는 가상 정보인 "Name(예: Lynn), Mobile number(예: 010-1234-0000)"가 표시될 수 있다.
즉, 상기 도 5의 예시와 같이 화면에 표시되는 오브젝트들이 전자장치에 근접하는 정도 또는 화면에서 표시되는 크기 정도에 따라, 즉 각 오브젝트들의 중요도에 따라 가상 정보의 표시 범위를 차등적으로 적용하여 표시할 수 있다. 예를 들어, 도 5의 예시에서 중요도가 높은 오브젝트(예컨대, Jane 오브젝트)에 대해서는 중요도 '상'의 범주에 속하는 정보부터 중요도 '하'의 범주에 속하는 정보까지 포함되어 제공될 수 있고, 중요도가 보통인 오브젝트(예컨대, John 오브젝트)에 대해서는 중요도 '상'의 범주에 속하는 정보와 중요도 '중'의 범주에 속하는 정보까지 포함되어 제공될 수 있고, 중요도가 낮은 오브젝트(예컨대, Lynn 오브젝트)에 대해서는 중요도 '상'의 범주에 속하는 정보만이 포함되어 제공될 수 있다.
여기서, 상기 도 5의 예시에서는 현실 이미지의 각 인물 오브젝트들 중 화면 상에서 가장 멀리 보이는 오브젝트(400)에 대해서는 가상 정보의 표시를 생략한 상태를 가정할 수 있다. 예를 들어, 인물 오브젝트들 중 가장 멀리 보이는 오브젝트(400)의 경우 중요도가 가장 낮은 오브젝트에 해당할 수 있다. 그리고 현실 이미지를 구성하는 오브젝트들이 많은 경우 각 오브젝트들에 대응되는 각 버블 윈도우(300)가 겹쳐짐으로 인해 오브젝트 및 가상 정보가 직관적으로 표시되지 않을 수도 있다. 이에, 본 발명의 실시 예에서는 현실 이미지의 각 오브젝트들에 대한 중요도에 따라 일부 오브젝트들에 대한 가상 정보의 표시를 적응적으로 생략할 수도 있다. 즉, 화면에 표시되는 오브젝트들의 구성비에 대응하여 가상 정보의 표시를 적응적으로 처리할 수도 있다. 따라서 상기 도 5의 예시에서는 오브젝트(400)에 대한 가상 정보의 표시가 생략되었으나, 화면이 충분히 크고 사용자의 시인성이 방해되지 않는다면 오브젝트(400)에 대해서도 가상 정보가 제공될 수도 있다.
상기 도 6에서는 건물 오브젝트에 대응되는 가상 정보의 속성이 사용의 어트랙트 스폿 정보(예컨대, 건축 정보)를 기반으로 하는 "건축물 이름(예컨대, 대성당, 호텔, 상징물 등), 주소, 현재 위치에서부터 거리, 전화번호, 웹페이지, 리뷰" 등으로 구분되는 것을 가정할 수 있다. 여기서, 상기 도 6에서는 상기한 가상 정보들 중 건축물 이름이 중요도 '상'의 범주에 속하고, 주소 및 거리가 중요도 '중'의 범주에 속하고, 전화번호, 웹페이지, 리뷰가 중요도 '하'의 범주에 속하는 것을 가정할 수 있다.
예를 들어, 건물 오브젝트들 중 전자장치와 가장 가까이 위치한(또는 가장 근접된, 화면에서 가장 크게 보이는 등) 오브젝트(예컨대, Russian Cathedral 오브젝트)의 경우 해당 오브젝트에 대응되는 가상 정보인 "건축물 이름(예컨대, Russian Cathedral), 주소(예컨대, 30 Rue des Beaux Arts 75006 Paris, France), 거리(예컨대, 50M far from here), 전화번호(예컨대, 01 44 47 9900), 웹페이지(예컨대, i-hotel.com), 리뷰(예컨대, 1 review)"가 표시될 수 있다. 또한 건물 오브젝트들 중 전자장치와 보통의 거리에 위치한(또는 보통으로 근접된, 화면에서 중가 크기로 보이는 등) 오브젝트(예컨대, Residence 오브젝트)의 경우 해당 오브젝트에 대응되는 가상 정보인 "건축물 이름(예컨대, Residence), 주소(예컨대, 30 Rue Joubert 75009 Paris, France), 거리(예컨대, 100M far from here)"가 표시될 수 있다. 또한 건물 오브젝트들 중 전자장치와 먼 거리에 위치한(또는 화면에서 작게 보이는 등) 오브젝트(예컨대, Eiffel Tower 오브젝트)의 경우 해당 오브젝트에 대응되는 가상 정보인 "건축물 이름(예컨대, Eiffel Tower)"이 표시될 수 있다.
또한 상기 도 6의 예시에서와 같이, 버블 윈도우(300)를 통해 표시되는 텍스트 기반의 가상 정보와 함께 해당 오브젝트에 대응되는 이미지가 함께 제공될 수도 있다. 즉, 본 발명의 실시 예에 따르면, 가상 정보는 텍스트 및 이미지 중 적어도 하나의 형태로 제공될 수 있다. 또한 상기 이미지에 대해서도 오브젝트의 중요도에 따라 그 크기를 다르게 나타낼 수도 있다. 예를 들어, 상기 도 6의 예시에서와 같이 중요도(또는 우선순위)가 높다고 판단되는 오브젝트(예컨대, Russian Cathedral 오브젝트)의 경우 이미지를 크게 나타낼 수 있고, 중요도(또는 우선순위)가 보통으로 판단되는 오브젝트(예컨대, Residence 오브젝트)의 경우 이미지를 보통의 크기로 나타낼 수 있고, 중요도(또는 우선순위)가 낮다고 판단되는 오브젝트(예컨대, Eiffel Tower 오브젝트)의 경우 이미지를 작게 나타낼 수 있다.
즉, 상기 도 6의 예시와 같이 화면에 표시되는 오브젝트들이 전자장치에 근접하는 정도 또는 화면에서 표시되는 크기 정도에 따라, 즉 각 오브젝트들의 중요도에 따라 가상 정보의 표시 범위를 차등적으로 적용하여 표시할 수 있다. 예를 들어, 도 6의 예시에서 중요도가 높은 오브젝트(예컨대, Russian Cathedral 오브젝트)에 대해서는 중요도 '상'의 범주에 속하는 정보부터 중요도 '하'의 범주에 속하는 정보까지 포함되어 제공될 수 있고, 중요도가 보통인 오브젝트(예컨대, Residence 오브젝트)에 대해서는 중요도 '상'의 범주에 속하는 정보와 중요도 '중'의 범주에 속하는 정보까지 포함되어 제공될 수 있고, 중요도가 낮은 오브젝트(예컨대, Eiffel Tower 오브젝트)에 대해서는 중요도 '상'의 범주에 속하는 정보만이 포함되어 제공될 수 있다.
여기서, 상기 도 6의 예시에서는 앞서 도 5에서 설명한 바와 같이, 현실 이미지의 각 오브젝트들 중 중요도, 화면 크기, 및 버블 윈도우(300)의 배치 등과 같은 여러 사항을 고려하여, 일부 오브젝트에 대해서는 가상 정보의 표시가 생략될 수도 있다.
도 7은 본 발명의 실시 예에 따른 전자장치에서 현실 이미지가 차등 레벨로 처리되는 경우의 동작 예시를 도시한 도면이다.
상기 도 7을 참조하면, 상기 도 7은 앞서 살펴본 바와 같은 도 5와 같은 상태에서, 사용자가 전자장치를 움직임에 따라 현실 이미지의 오브젝트가 변화되는 경우를 설명하기 위해 개략적으로 도시한 도면이다.
상기 도 7에 도시된 바와 같이, 상기 도 5와 같은 상태에서, 사용자는 화면에 표시되는 현실 이미지(예컨대, 오브젝트)를 변화시키기 위하여 전자장치를 이동할 수 있다. 예를 들어, 상기 도 7의 예시와 같이 사용자는 전자장치를 왼쪽 방향(예컨대, Jane 오브젝트가 화면에서 제외되는 방향)으로 움직일 수 있다. 상기 도 5와 상기 도 7을 비교할 때, 상기 도 7의 화면 상에서는 John 오브젝트가 전자장치와 가장 가까이 위치한(또는 가장 근접된, 화면에서 가장 크게 보이는 등) 오브젝트로 변경되고, Lynn 오브젝트가 전자장치와 보통의 거리에 위치한(또는 보통으로 근접된, 화면에서 중간 크기로 보이는 등) 오브젝트로 변경되고, Kim 오브젝트가 전자장치와 먼 거리에 위치한(또는 화면에서 작게 보이는 등) 오브젝트로 변경될 수 있다. 상기 도 5와 같은 상태에서 상기 도 7과 같이 현실 이미지가 변화될 시 현실 이미지의 각 오브젝트들에 대한 중요도가 변경될 수 있으며, 이에 따라 해당 오브젝트들에 대응되는 가상 정보의 중요도(즉, 가상 정보의 표시 범위(또는 정보의 양)) 역시 변경되어 표시될 수 있다.
예를 들어, 전자장치와 가장 가까이 위치하도록 변경된 John 오브젝트의 경우, 중요도가 보통에서 높은 상태로 변경됨에 따라 도 5에서 표시되던 가상 정보(예컨대, 중요도 '상' 및 중요도 '중'의 범주에 속하는 정보)에 나머지 정보(예컨대, 중요도 '하'의 범주에 속하는 정보)까지 포함될 수 있다. 예를 들어, 상기 도 5 및 도 7의 예시와 같이, John 오브젝트의 경우, "Name(예: John), Mobile number(예: 010-2345-9876), Office number(예: 02-2255-9876), Email: John@office.com"의 정보(중요도 '상' 및 '중' 범주의 정보)에 "Ringtone: Waterfall, Events: 11/NOV/1981"의 정보(중요도 '하' 범주의 정보)가 더 포함되어 표시될 수 있다. 또한 Lynn 오브젝트의 경우, "Name(예: Lynn), Mobile number(예: 010-1234-0000)"의 정보(중요도 '상' 범주)에 "Office: 02-2255-1111, Email: Lynn@office.com"의 정보(중요도 '중' 범주)가 더 포함되어 표시될 수 있다. 또한 Kim의 오브젝트의 경우, 가상 정보가 표시되지 않던 상태에서 "Name(예: Jane), Mobile number(예: 010-2345-6789)"의 정보(중요도 '중' 범주의 정보)가 추가되어 표시될 수 있다. 이와 같이, 본 발명의 실시 예에 따르면, 화면에 표시된 현실 이미지가 변화되거나 또는 사용자에 의해 의도된 일정 입력 등으로 인하여 미리 설정된 중요도의 기준이 반전될 시 그에 맞추어 표시되는 가상 정보도 변경되어 표시될 수 있다.
이상에서 도 3a 내지 도 7을 참조한 동작 예시들을 통해 살펴본 바와 같이, 본 발명의 다양한 실시 예에 따르면, 현실 이미지를 구성하는 오브젝트들의 중요도를 결정하고, 오브젝트들의 중요도에 따라 해당 오브젝트에 오버랩하여 표시할 가상 정보의 중요도(즉, 가상 정보의 표시 범위를 결정할 수 있다. 즉, 본 발명의 실시 예에서는 오브젝트의 중요도 및 가상 정보의 중요도를 고려하여 해당 오브젝트에 대응되는 가상 정보를 차등적으로 구성하여 표시할 수 있다. 또한 본 발명의 실시 예에서는 가상 정보를 표현하는 방식에 있어서 피사체에 대응하는 현실 이미지를 동일 레벨로 처리할 수 있고, 또는 피사체에 대응하는 현실 이미지를 차등 레벨로 처리할 수도 있다.
본 발명의 실시 예에서 현실 이미지를 동일 레벨로 처리하는 경우 현실 이미지의 수(예컨대, 오브젝트의 수)에 따라 가상 정보의 표시 범위(또는 정보의 양)를 변화시켜 표시할 수 있으며, 이때, 변수로는 오브젝트의 수가 될 수 있고, 그 결과인 가상 정보의 표시 범위(또는 정보의 양)는 오브젝트 수와 반비례 관계를 가질 수 있다.
본 발명의 실시 예에서 현실 이미지를 차등 레벨로 처리하는 경우 현실 이미지의 중요도(예컨대, 오브젝트별 중요도)에 따라 가상 정보의 표시 범위(또는 정보의 양)를 변화시켜 표시할 수 있으며, 이때, 변수로는 오브젝트의 중요도가 될 수 있고, 그 결과인 가상 정보의 표시 범위(또는 정보의 양)는 오브젝트의 중요도와 비례 관계를 가질 수 있다.
그리고 본 발명의 실시 예에서 오브젝트의 중요도는 해당 증강 현실 어플리케이션 또는 사용자 설정에 따라 2단계, 3단계 또는 그 이상으로 분류 가능하며, 가상 정보의 중요도 역시 다수의 단계로 분류 가능하다. 즉, 본 발명의 다양한 실시 예에서는 특정 현실 이미지(오브젝트)와 특정 가상 정보를 분류하는 범주를 한정하지 않으며, 현실 이미지와 가상 정보를 각각 분류하여 매핑시켜 가상 정보 전달 시 시각적 효율성을 극대화 시킬 수 있는 다양한 방식에 의해 구현될 수 있다.
한편, 이상에서 도 3a 내지 도 7을 참조한 동작 예시에서는 설명을 생략하였으나, 본 발명의 실시 예에 따르면, 현실 이미지에 오버랩되어 표시되는 가상 정보에 대해 사용자 입력에 반응하여 그 위치를 이동하여 표시할 수도 있다. 예를 들어, 상기 도 7에서 Lynn 오브젝트에 대응하여 표시된 가상 정보를 이동하는 동작 예시를 살펴보면, 사용자는 Lynn 오브젝트에 대한 가상 정보가 제공되는 버블 윈도우(300)를 선택하여 일정 시간 유지하는 터치 이벤트(예컨대, 터치 앤 홀드(touch & hold) 이벤트)를 입력할 수 있다. 그리고 사용자는 상기 버블 윈도우(300)를 일정 방향으로 이동(예컨대, 화면 상에서 아래로 이동)하는 터치 이벤트(예컨대, 드래그(drag) 이벤트, 무브(move) 이벤트)를 입력할 수 있다. 그러면, 전자장치는 상기와 같은 사용자 입력에 반응하여 해당 버블 윈도우(300)를 해당 위치로 이동하여 배치하여 표시할 수 있다. 이때, 전자장치는 버블 윈도우(300)의 이동에 반응하여 해당 버블 윈도우(300)의 말풍선 형태를 변경시켜 제공할 수도 있다. 이를 통해, 가상 정보를 위한 버블 윈도우(300)에 의해 오브젝트가 가려지는 것을 방지할 수 있어, 사용자의 시인성 및 직관성을 향상시킬 수 있다.
도 8은 본 발명의 실시 예에 따른 전자장치에서 현실 이미지에 가상 정보를 매핑시켜 표시하는 방법을 도시한 흐름도이다.
상기 도 8을 참조하면, 제어부(180)는 뷰 모드를 실행하고(801단계), 상기 뷰 모드 실행에 따른 현실 이미지 표시를 제어할 수 있다(803단계). 예를 들어, 제어부(180)는 사용자로부터 요청되는 증강 현실 어플리케이션 또는 카메라 어플리케이션을 실행하고, 그에 따라 카메라 모듈(170)을 구동할 수 있다. 그리고 제어부(180)는 실행하는 어플리케이션과 관련된 뷰 모드에서 상기 카메라 모듈(170)을 통해 획득되는 현실 세계의 피사체에 대응하는 현실 이미지가 프리뷰로 제공되는 화면 표시를 제어할 수 있다.
제어부(180)는 상기 현실 이미지를 표시하는 시점에서 상기 현실 이미지를 구성하는 오브젝트를 분석할 수 있다(805단계). 예를 들어, 제어부(180)는 현실 이미지를 구성하는 오브젝트를 추출하고, 추출된 오브젝트를 기반으로 현실 이미지의 분류(또는 속성)를 분석할 수 있다. 또한 제어부(180)는 해당 현실 이미지의 분류(또는 속성)에서 어느 정도의 복잡도(예컨대, 오브젝트의 수, 오브젝트의 중요도 등)를 가지는지 판단할 수 있다.
제어부(180)는 현실 이미지에 대응하는 가상 정보를 표시하기 위한 처리 방식을 확인할 수 있다(807단계). 제어부(180)는 미리 설정된 설정정보를 참조하여 설정된 처리 방식을 확인할 수 있고, 이에 의해, 처리 방식이 현실 이미지의 오브젝트마다 동일 레벨의 가상 정보를 표시하는 방식인지, 또는 현실 이미지의 오브젝트마다 차등 레벨의 가상 정보를 표시하는 방식인지 판단할 수 있다(809단계).
제어부(180)는 상기 처리 방식이 오브젝트 별로 동일 레벨의 가상 정보를 표시하는 방식이면(809단계의 YES), 상기 현실 이미지에 포함된 오브젝트의 중요도(예컨대, 오브젝트의 수 등)를 확인하고(811단계), 상기 오브젝트 수에 대응하여 각 오브젝트마다 표시될 가상 정보의 표시 범위(또는 정보의 양)를 결정할 수 있다(813단계). 예를 들어, 제어부(180)는 미리 설정된 가상 정보의 중요도 단계(예컨대, 중요도 '상', '중', '하') 중에서 오브젝트의 중요도(예컨대, 오브젝트의 수)에 대응하는 가상 정보의 중요도 단계를 결정할 수 있다. 이러한 동작 예시가 앞서 살펴본 바와 같은 도 3a 내지 도 3c 또는 도 4a 및 도 4b에 나타나 있다.
제어부(180)는 상기 처리 방식이 오브젝트 별로 차등 레벨의 가상 정보를 표시하는 방식이면(809단계의 NO), 상기 현실 이미지에 포함된 오브젝트의 중요도(예컨대, 오브젝트의 크기, 거리, 표시 시기 등)를 구분하고(815단계), 상기 오브젝트의 중요도에 대응하여 각 오브젝트마다 표시될 각각의 가상 정보의 표시 범위(또는 정보의 양)를 결정할 수 있다(817단계). 예를 들어, 제어부(180)는 미리 설정된 가상 정보의 중요도 단계(예컨대, 중요도 '상', '중', '하') 중에서 각 오브젝트의 중요도(예컨대, 오브젝트의 크기, 거리, 표시 시기 등)에 대응하여 각 오브젝트 별 가상 정보의 중요도 단계를 결정할 수 있다. 이러한 동작 예시가 앞서 살펴본 바와 같은 도 5 내지 도 7에 나타나 있다.
제어부(180)는 상기와 같이 결정된 가상 정보의 표시 범위(정보의 양)를 이용하여 상기 현실 이미지의 오브젝트별 가상 정보를 매핑하고(819단계), 해당 오브젝트 별로 매핑된 가상 정보를 오버랩하여 표시되도록 제어할 수 있다(821단계). 이러한 동작 예시가 앞서 살펴본 바와 같은 도 3a 내지 도 7에 나타나 있다.
제어부(180)는 상기와 같이 현실 이미지 상에 가상 정보가 오버랩되어 표시되고 있는 상태에서, 현재 화면에 표시 중인 현실 이미지에 대한 변화가 있는지 체크할 수 있다(823단계). 예를 들어, 제어부(180)는 카메라 모듈(170)을 통해 획득되는 피사체의 현실 이미지에 대응하는 오브젝트가 변경되는 것을 검출할 수 있다. 제어부(180)는 카메라 모듈(1700)에서 획득되는 현실 이미지의 프레임(frame) 단위로 변화 여부를 검출할 수 있다.
제어부(180)는 현실 이미지의 변화가 감지될 시(823단계의 YES), 상기 현실 이미지의 변화(즉, 오브젝트의 변화)에 대응하여 가상 정보의 차등 표시를 제어할 수 있다(825단계). 예를 들어, 제어부(180)는 현실 이미지의 변화에 대응하게 변화되는 오브젝트의 중요도에 따라 각 오브젝트에 대한 가상 정보를 변화시켜 표시할 수 있다. 이러한 동작 예시가 앞서 살펴본 바와 같은 도 7에 나타나 있다.
제어부(180)는 상기와 같이 현실 이미지 상에 가상 정보가 오버랩되어 표시되고 있는 상태에서, 현재 화면에 표시 중인 현실 이미지 및 가상 정보에 대한 저장 요청이 있는지 체크할 수 있다(827단계). 예를 들어, 사용자는 전자장치의 사용자 입력부(120) 또는 터치스크린(130)을 통해 현재 촬영 중인 현실 이미지를 캡쳐(capture)하기 위해 설정된 명령을 입력할 수 있다.
제어부(180)는 사용자로부터 저장 요청이 있는 경우(827단계의 YES), 현재 화면에 표시 중인 현실 이미지와 그에 매핑되어 표시된 가상 정보를 결합하여 저장할 수 있다(829단계). 예를 들어, 제어부(180)는 사용자 입력부(120) 또는 터치스크린(130)을 통해 현재 표시 중인 현실 이미지의 저장을 위한 설정된 명령이 입력되면, 상기 명령에 반응하여 현재 표시되고 있는 현실 이미지와 그에 오버랩되어 표시되고 있는 가상 정보를 결합하여 저장할 수 있다.
제어부(180)는 사용자로부터 저장 요청이 없는 경우(827단계의 NO), 해당 동작 수행을 제어할 수 있다(831단계). 예를 들어, 제어부(180)는 사용자의 뷰 모드 종료 요청에 응답하여 뷰 모드를 종료할 수 있다. 또는 제어부(180)는 특정 오브젝트에 오버랩되어 표시 중인 가상 정보의 버블 윈도우(300)를 이동하는 사용자 입력에 반응하여 해당 버블 윈도우(300)를 해당 영역으로 이동한 후 표시할 수 있다.
한편, 전자장치는 뷰 모드가 종료될 시 더 이상 카메라 모듈(170)을 사용할 필요가 없을 수 있다. 따라서 전자장치는 뷰 모드가 종료될 시 카메라 모듈(170)을 통한 촬영 기능을 차단(deactivate)할 수도 있다. 예를 들어, 카메라 모듈(170)은 턴-오프(turn-off)될 수 있다.
본 발명의 다양한 실시 예들에 따르면, 각각의 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 그 조합으로 구성될 수 있다. 또한, 일부 또는 전체 모듈은 하나의 개체 (entity)에 구성되되, 각 해당 모듈의 기능을 동일하게 수행되도록 구성할 수 있다.
본 발명의 다양한 실시 예들에 따르면, 각각의 동작들은 순차적, 반복적 또는 병렬적으로 실행될 수 있다. 또한, 일부 동작들은 생략되거나, 다른 동작들이 추가되어 실행될 수 있다. 한 예에 따르면, 각각의 동작들은 본 발명에서 기술한 대응하는 모듈에 의해서 실행될 수 있다.
한편, 상술한 바와 같은 본 발명의 다양한 실시 예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터로 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터로 판독 가능한 기록 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기록 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
그리고 본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
110: 무선 통신부 120: 사용자 입력부
130: 터치스크린 140: 오디오 처리부
150: 저장부 160: 인터페이스부
170: 카메라 모듈 180: 제어부
182: 데이터 처리 모듈 184: 현실 이미지 표시 모듈
186: 정보 처리 모듈 188: 정보 표시 모듈
190: 전원 공급부

Claims (19)

  1. 전자장치를 이용한 정보 제공 방법에 있어서,
    뷰 모드에서 획득되는 현실 이미지를 표시하는 과정;
    상기 현실 이미지에 따른 오브젝트의 중요도를 분석하는 과정;
    상기 오브젝트의 중요도에 따라 오브젝트별 가상 정보의 표시 범위를 결정하는 과정; 및
    상기 가상 정보의 표시 범위에 따른 오브젝트별 가상 정보를 표시하는 과정을 포함하는 전자장치를 이용한 정보 제공 방법.
  2. 제1항에 있어서, 상기 가상 정보의 표시 범위를 결정하는 과정은
    상기 현실 이미지의 오브젝트의 중요도에 따라 각 오브젝트에 대응되는 가상 정보의 표시 범위를 차등하게 결정하는 것을 특징으로 하는 전자장치를 이용한 정보 제공 방법.
  3. 제1항에 있어서, 상기 가상 정보의 표시 범위를 결정하는 과정은
    상기 오브젝트의 중요도에 따라 오브젝트마다 동일 레벨로 적용되는 가상 정보의 표시 범위를 결정하는 것을 특징으로 하는 전자장치를 이용한 정보 제공 방법.
  4. 제3항에 있어서, 상기 가상 정보를 표시하는 과정은
    상기 결정된 가상 정보의 표시 범위 내의 가상 정보를 각 오브젝트에 오버랩하여 표시하는 것을 포함하고,
    상기 각 오브젝트별 매핑되는 가상 정보는 동일 레벨을 가지는 것을 특징으로 하는 전자장치를 이용한 정보 제공 방법.
  5. 제1항에 있어서, 상기 가상 정보의 표시 범위를 결정하는 과정은
    상기 오브젝트의 중요도에 따라 오브젝트마다 차등 레벨로 적용되는 각각의 가상 정보의 표시 범위를 결정하는 것을 특징으로 하는 전자장치를 이용한 정보 제공 방법.
  6. 제5항에 있어서, 상기 가상 정보를 표시하는 과정은
    상기 결정된 가상 정보의 표시 범위 내의 가상 정보를 각 오브젝트에 오버랩하여 표시하는 것을 포함하고,
    상기 각 오브젝트별 매핑되는 가상 정보는 차등 레벨을 가지는 것을 특징으로 하는 전자장치를 이용한 정보 제공 방법.
  7. 제1항에 있어서, 상기 오브젝트의 중요도는
    오브젝트의 수, 오브젝트의 크기, 오브젝트의 거리, 오브젝트의 제공 시기, 오브젝트의 표시 시기 중 어느 하나 또는 적어도 두 개의 조합에 의해 결정하는 것을 포함하는 전자장치를 이용한 정보 제공 방법.
  8. 제1항에 있어서, 상기 오브젝트의 중요도는
    사용자에 의해 임의적으로 변경 설정되는 것을 특징으로 하는 전자장치를 이용한 정보 제공 방법.
  9. 제8항에 있어서,
    상기 사용자에 의해 상기 오브젝트의 중요도가 변경될 시, 변경되는 오브젝트의 중요도에 따라 상기 가상정보를 변경하여 표시하는 것을 특징으로 하는 전자장치를 이용한 정보 제공 방법.
  10. 제1항에 있어서,
    오브젝트별 동일 레벨에 의한 가상 정보를 표시하는 방식인지, 또는 오브젝트별 차등 레벨에 의한 가상 정보를 표시하는 방식인지 결정하는 과정을 더 포함하는 전자장치를 이용한 정보 제공 방법.
  11. 제1항에 있어서, 상기 가상 정보를 표시하는 과정은
    상기 표시 중인 현실 이미지의 변화를 감지하는 과정;
    상기 현실 이미지의 변화에 따라 변화되는 오브젝트의 중요도를 판단하는 과정; 및
    상기 변화되는 오브젝트의 중요도에 대응하게 각 오브젝트에 대한 가상 정보를 변경하여 표시하는 과정을 포함하는 전자장치를 이용한 정보 제공 방법.
  12. 제1항에 있어서,
    상기 현실 이미지와 상기 현실 이미지의 오브젝트에 오버랩되어 표시된 가상 정보를 결합하여 저장하는 과정을 더 포함하는 전자장치를 이용한 정보 제공 방법.
  13. 전자장치에 있어서,
    뷰 모드에서 피사체의 현실 이미지를 획득하는 카메라 모듈;
    상기 카메라 모듈에서 획득된 상기 현실 이미지를 표시하고, 상기 현실 이미지의 오브젝트에 가상 정보를 오버랩하여 표시하는 표시부; 및
    상기 현실 이미지에 따른 오브젝트의 중요도를 분석하고, 상기 오브젝트의 중요도에 따라 오브젝트별 가상 정보의 표시 범위를 결정하며, 상기 가상 정보의 표시 범위에 따른 가상 정보를 각 오브젝트에 매핑하여, 각 오브젝트에 오버랩되는 가상 정보의 표시를 제어하는 제어부를 포함하는 전자장치.
  14. 제13항에 있어서, 상기 제어부는
    뷰 모드에서 획득되는 현실 이미지를 표시하기 위한 현실 이미지 표시 모듈;
    상기 현실 이미지에 따른 오브젝트의 중요도에 따라 오브젝트별 가상 정보의 표시 범위를 결정하기 위한 정보 처리 모듈; 및
    오브젝트별 가상 정보를 각각의 오브젝트에 매핑시켜 표시하기 위한 정보 표시 모듈을 포함하는 전자장치.
  15. 제14항에 있어서, 상기 정보 처리 모듈은
    현실 이미지의 오브젝트의 중요도를 분석하고, 분석된 중요도에 따라 각 오브젝트에 대응되는 가상 정보의 표시 범위를 차등하게 결정하는 것을 특징으로 하는 전자장치.
  16. 제14항에 있어서, 상기 정보 처리 모듈은
    상기 오브젝트의 중요도에 따라 오브젝트마다 동일 레벨로 적용되는 가상 정보의 표시 범위를 결정하고, 결정된 가상 정보의 표시 범위 내의 가상 정보를 각 오브젝트에 매핑하여 표시하도록 동작하는 것을 특징으로 하는 전자장치.
  17. 제14항에 있어서, 상기 정보 처리 모듈은
    상기 오브젝트의 중요도에 따라 오브젝트마다 차등 레벨로 적용되는 각각의 가상 정보의 표시 범위를 결정하고, 결정된 가상 정보의 표시 범위 내의 가상 정보를 각 오브젝트에 매핑하여 표시하도록 동작하는 것을 특징으로 하는 전자장치.
  18. 전자장치에 있어서,
    뷰 모드에서 획득되는 현실 이미지를 표시하기 위한 컴퓨터에 의해 실행되는(computer-implemented) 현실 이미지 표시 모듈;
    상기 현실 이미지에 따른 오브젝트의 중요도에 따라 오브젝트별 가상 정보의 표시 범위를 결정하기 위한 컴퓨터에 의해 실행되는 정보 처리 모듈; 및
    오브젝트별 가상 정보를 각각의 오브젝트에 매핑시켜 표시하기 위한 컴퓨터에 의해 실행되는 정보 표시 모듈을 포함하는 전자장치.
  19. 뷰 모드에서 획득되는 현실 이미지를 표시하는 동작, 상기 현실 이미지에 따른 오브젝트의 중요도에 따라 오브젝트별 가상 정보의 표시 범위를 결정하는 동작, 그리고 오브젝트별 가상 정보를 각각의 오브젝트에 매핑시켜 표시하는 동작을 수행하는 프로그램을 저장한 컴퓨터로 읽을 수 있는 기록 매체.
KR1020130065089A 2013-06-07 2013-06-07 뷰 모드에서 정보 제공 방법 및 장치 KR102098058B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020130065089A KR102098058B1 (ko) 2013-06-07 2013-06-07 뷰 모드에서 정보 제공 방법 및 장치
US14/299,550 US20140362111A1 (en) 2013-06-07 2014-06-09 Method and device for providing information in view mode
EP14171652.2A EP2811462B1 (en) 2013-06-07 2014-06-09 Method and device for providing information in view mode

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130065089A KR102098058B1 (ko) 2013-06-07 2013-06-07 뷰 모드에서 정보 제공 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20140143505A true KR20140143505A (ko) 2014-12-17
KR102098058B1 KR102098058B1 (ko) 2020-04-07

Family

ID=50982768

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130065089A KR102098058B1 (ko) 2013-06-07 2013-06-07 뷰 모드에서 정보 제공 방법 및 장치

Country Status (3)

Country Link
US (1) US20140362111A1 (ko)
EP (1) EP2811462B1 (ko)
KR (1) KR102098058B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022154478A1 (ko) * 2021-01-12 2022-07-21 엘지전자 주식회사 증강현실 서비스를 제공하는 ar 서비스 플랫폼

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI403156B (zh) * 2008-08-08 2013-07-21 尼康股份有限公司 Carrying information machines, photographic devices, and information acquisition systems
US9894116B2 (en) * 2012-04-12 2018-02-13 Intel Corporation Techniques for augmented social networking
JP2016004340A (ja) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 情報配信システム、頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
KR20160015972A (ko) * 2014-08-01 2016-02-15 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
CN104880835A (zh) * 2015-05-13 2015-09-02 浙江吉利控股集团有限公司 智能眼镜
US10547709B2 (en) 2015-06-18 2020-01-28 Qualtrics, Llc Recomposing survey questions for distribution via multiple distribution channels
US10325568B2 (en) 2015-08-03 2019-06-18 Qualtrics, Llc Providing a display based electronic survey
GB2544827A (en) * 2015-09-25 2017-05-31 Pixel Matter Ltd Viewer and viewing method
CN108369482B (zh) * 2015-12-14 2021-09-28 索尼公司 信息处理设备、信息处理方法和程序
CN107239725B (zh) * 2016-03-29 2020-10-16 阿里巴巴集团控股有限公司 一种信息展示方法、装置及系统
US10176640B2 (en) * 2016-08-02 2019-01-08 Qualtrics, Llc Conducting digital surveys utilizing virtual reality and augmented reality devices
US11301877B2 (en) 2016-09-01 2022-04-12 Qualtrics, Llc Providing analysis of perception data over time for events
US10373358B2 (en) * 2016-11-09 2019-08-06 Sony Corporation Edge user interface for augmenting camera viewfinder with information
KR101918853B1 (ko) * 2017-06-28 2018-11-15 민코넷주식회사 게임 리플레이 영상 생성 시스템
US10607082B2 (en) * 2017-09-09 2020-03-31 Google Llc Systems, methods, and apparatus for image-responsive automated assistants
KR102418992B1 (ko) * 2017-11-23 2022-07-11 삼성전자주식회사 전자 장치 및 전자 장치의 증강 현실 서비스 제공 방법
KR20200100918A (ko) 2019-02-19 2020-08-27 삼성전자주식회사 카메라를 이용하는 어플리케이션을 통해 다양한 기능을 제공하는 전자 장치 및 그의 동작 방법
WO2020196385A1 (ja) * 2019-03-25 2020-10-01 富士フイルム株式会社 画像処理装置、画像処理方法及びプログラム、撮影装置
US11144760B2 (en) * 2019-06-21 2021-10-12 International Business Machines Corporation Augmented reality tagging of non-smart items
US11776253B2 (en) * 2020-03-27 2023-10-03 Snap Inc. Displaying object names in association with augmented reality content
CN111625101B (zh) * 2020-06-03 2024-05-17 上海商汤智能科技有限公司 一种展示控制方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060054873A (ko) * 2004-11-16 2006-05-23 한국전자통신연구원 주행속도 기반 연속적인 공간영역 질의 처리에 의한헤드업 디스플레이 장치를 갖는 차량항법 시스템 및 그의정보 출력 방법
KR100782594B1 (ko) * 2006-07-14 2007-12-06 엠텍비젼 주식회사 데이터 처리 기능을 구비한 메모리 장치
KR100920937B1 (ko) * 2008-04-15 2009-10-14 오위환 감시 시스템에서의 움직임 검출 및 영상 저장 장치 및 방법
EP2393056A1 (en) * 2010-06-02 2011-12-07 Layar B.V. Acquiring, ranking and displaying points of interest for use in an augmented reality service provisioning system and graphical user interface for displaying such ranked points of interests
KR20120015637A (ko) * 2010-08-12 2012-02-22 주식회사 팬택 Ar 정보창 표시를 위한 사용자 장치 및 그 방법
KR20120017870A (ko) * 2010-08-20 2012-02-29 주식회사 팬택 객체 정보 제공 단말 장치 및 그 방법
KR20120017869A (ko) * 2010-08-20 2012-02-29 주식회사 팬택 단계별 객체 정보 제공이 가능한 단말 장치 및 방법
KR20120062436A (ko) * 2010-12-06 2012-06-14 에스케이플래닛 주식회사 영상 감시 시스템 및 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8355680B2 (en) * 2007-12-10 2013-01-15 Nec Corporation Radio wave propagation analysis result display system
EP2145882B1 (en) * 2008-07-16 2013-08-21 Crystal Pharma, S.A.U. Process for obtaining olopatadine and intermediates
US9448404B2 (en) * 2012-11-13 2016-09-20 Qualcomm Incorporated Modifying virtual object display properties to increase power performance of augmented reality devices

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060054873A (ko) * 2004-11-16 2006-05-23 한국전자통신연구원 주행속도 기반 연속적인 공간영역 질의 처리에 의한헤드업 디스플레이 장치를 갖는 차량항법 시스템 및 그의정보 출력 방법
KR100782594B1 (ko) * 2006-07-14 2007-12-06 엠텍비젼 주식회사 데이터 처리 기능을 구비한 메모리 장치
KR100920937B1 (ko) * 2008-04-15 2009-10-14 오위환 감시 시스템에서의 움직임 검출 및 영상 저장 장치 및 방법
EP2393056A1 (en) * 2010-06-02 2011-12-07 Layar B.V. Acquiring, ranking and displaying points of interest for use in an augmented reality service provisioning system and graphical user interface for displaying such ranked points of interests
KR20120015637A (ko) * 2010-08-12 2012-02-22 주식회사 팬택 Ar 정보창 표시를 위한 사용자 장치 및 그 방법
KR20120017870A (ko) * 2010-08-20 2012-02-29 주식회사 팬택 객체 정보 제공 단말 장치 및 그 방법
KR20120017869A (ko) * 2010-08-20 2012-02-29 주식회사 팬택 단계별 객체 정보 제공이 가능한 단말 장치 및 방법
KR20120062436A (ko) * 2010-12-06 2012-06-14 에스케이플래닛 주식회사 영상 감시 시스템 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022154478A1 (ko) * 2021-01-12 2022-07-21 엘지전자 주식회사 증강현실 서비스를 제공하는 ar 서비스 플랫폼

Also Published As

Publication number Publication date
EP2811462B1 (en) 2017-11-15
EP2811462A1 (en) 2014-12-10
KR102098058B1 (ko) 2020-04-07
US20140362111A1 (en) 2014-12-11

Similar Documents

Publication Publication Date Title
KR102098058B1 (ko) 뷰 모드에서 정보 제공 방법 및 장치
USRE49890E1 (en) Method and apparatus for providing information by using messenger
TWI626583B (zh) 電子裝置及其資料處理方法
US10187520B2 (en) Terminal device and content displaying method thereof, server and controlling method thereof
KR101899548B1 (ko) 휴대단말에서 피드 정보 수집 방법 및 장치
CN110476189B (zh) 用于在电子装置中提供增强现实功能的方法和设备
US11914850B2 (en) User profile picture generation method and electronic device
US10359901B2 (en) Method and apparatus for providing intelligent service using inputted character in a user device
US9430500B2 (en) Method and device for operating image in electronic device
US20150067590A1 (en) Method and apparatus for sharing objects in electronic device
KR20150004713A (ko) 사용자 디바이스에서 어플리케이션 연동 방법 및 장치
KR20150017131A (ko) 모바일 단말기 및 그의 제어 방법
KR20140026726A (ko) 광학식 문자 판독기를 이용한 데이터 처리 방법 및 장치
KR102091000B1 (ko) 사용자 제스처를 이용한 데이터 처리 방법 및 장치
KR20170053273A (ko) 컨텐츠 표시 방법 및 이를 구현한 전자 장치
US20140221047A1 (en) Method and apparatus for providing short-cut number in user device
WO2022222688A1 (zh) 一种窗口控制方法及其设备
EP2717121B1 (en) Method and apparatus for providing intelligent service using inputted character in a user device
KR20150026120A (ko) 객체 편집 방법 및 이를 위한 전자 기기
KR20140034025A (ko) 휴대단말에서 표시장치별 윈도우 레이아웃 제공 방법 및 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant