KR101648339B1 - 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치 - Google Patents

휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치 Download PDF

Info

Publication number
KR101648339B1
KR101648339B1 KR1020090090427A KR20090090427A KR101648339B1 KR 101648339 B1 KR101648339 B1 KR 101648339B1 KR 1020090090427 A KR1020090090427 A KR 1020090090427A KR 20090090427 A KR20090090427 A KR 20090090427A KR 101648339 B1 KR101648339 B1 KR 101648339B1
Authority
KR
South Korea
Prior art keywords
portable terminal
image
camera
poi information
information
Prior art date
Application number
KR1020090090427A
Other languages
English (en)
Other versions
KR20110032765A (ko
Inventor
이재면
홍현수
정미진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090090427A priority Critical patent/KR101648339B1/ko
Priority to EP19206727.0A priority patent/EP3637050A1/en
Priority to EP10177759.7A priority patent/EP2302322B1/en
Priority to US12/924,253 priority patent/US9410810B2/en
Publication of KR20110032765A publication Critical patent/KR20110032765A/ko
Priority to US15/231,632 priority patent/US9915544B2/en
Application granted granted Critical
Publication of KR101648339B1 publication Critical patent/KR101648339B1/ko
Priority to US15/888,551 priority patent/US10190885B2/en
Priority to US16/259,158 priority patent/US10578452B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3623Destination input or retrieval using a camera or code reader, e.g. for optical or magnetic codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3446Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3492Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3644Landmark guidance, e.g. using POIs or conspicuous other objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/10Viewfinders adjusting viewfinders field
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00281Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
    • H04N1/00307Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a mobile telephone apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32128Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0084Digital still camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3245Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of image modifying data, e.g. handwritten addenda, highlights or augmented reality information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3252Image capture parameters, e.g. resolution, illumination conditions, orientation of the image capture device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3253Position information, e.g. geographical position at time of capture, GPS data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3273Display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/328Processing of the additional information

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치에 관한 것으로서, 가속도 센서를 이용하여 상기 휴대용 단말기가 지면과 수평 상태인지 여부를 판단하는 과정과, 지면과 수평 상태일 경우, 주변의 POI 정보를 포함한 지를 디스플레이하거나 별자리 정보를 디스플레이하는 과정을 포함하여, 현재 위치의 지도 정보, 별자리 정보, 이동 거리 및 시간 정보와 같은 다양한 정보들을 제공하며, 사용자들의 높은 기대와 다양한 기호를 만족시킬 수 있다.
AR(Augmented Reality), POI, 컴퍼스(compass), 줌(Zoom)

Description

휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치{APPARATUS AND METHOD FOR PROVIDING SERVICE USING A SENSOR AND IMAGE RECOGNITION IN PORTABLE TERMINAL}
본 발명은 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치에 관한 것으로서, 특히, AR(Augmented Reality)를 지원하는 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스를 제공하는 방법 및 장치에 관한 것이다.
오늘날, 통신 기술이 급격하게 발달함에 따라, 사용자들이 가상세계와 현실세계를 동시에 즐길 수 있도록 하기 위한 다양한 서비스들이 제공되고 있다. 일 예로 휴대용 단말기에서 카메라를 통해 입력되는 실물의 영상 위에 상기 실물에 관련된 설명을 나타내는 그래픽 혹은 텍스트 형태의 영상을 겹쳐 보여주는 AR(Augmented Reality) 서비스가 제공되고 있다.
도 1은 종래 기술에 따른 휴대용 단말기에서 AR 서비스를 제공하는 화면 구성을 도시하고 있다.
상기 도 1에 도시된 바와 같이, 종래 기술에 따른 휴대용 단말기는 사용자가 AR 어플리케이션을 실행시키면, 카메라를 구동시켜 상기 카메라로부터 입력되는 영상을 화면에 디스플레이하고, 상기 입력되는 영상에 포함된 지형 혹은 지물의 정보를 현재 위치 정보를 통해 수집한 후, 상기 화면에 디스플레이한다. 이는, 사용자가 주변의 지형 혹은 지물(Point Of Interest: 이하 'POI'라 칭함)에 관련된 정보를 얻기 위해 책을 찾거나 인터넷을 검색하는 등의 동작을 수행하지 않고서도, 단순히 휴대용 단말기에서 상기 AR 어플리케이션 실행하여 해당 지형 혹은 지물을 촬영함으로써, POI 정보를 획득할 수 있도록 하는 장점이 있다.
하지만, 최근에는 휴대용 단말기가 많이 사용됨에 따라 상기 휴대용 단말기에서 제공하는 각종 서비스의 기능들에 대한 사용자들의 기대와 요구가 점점 높아지고 있다. 따라서, 상기 사용자들의 높은 기대와 다양한 기호를 만족시키기 위해 상기 AR 서비스를 좀 더 폭 넓게 즐길 수 있는 다양한 기능들이 제공될 필요성이 있다.
본 발명은 상술한 바와 같은 문제점을 해결하기 위해 도출된 것으로서, 본 발명의 목적은 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치를 제공함에 있다.
본 발명의 다른 목적은 AR(Augmented Reality)을 지원하는 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스를 제공하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 AR을 지원하는 휴대용 단말기에서 가속도 센서를 통해 자세각을 획득하여 현재 위치의 지도 정보를 제공하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 AR을 지원하는 휴대용 단말기에서 가속도 센서를 통해 자세각을 획득하여 현재 위치의 별자리 정보를 제공하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 AR을 지원하는 휴대용 단말기에서 지자기센서를 통해 방향 정보를 제공하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 AR을 지원하는 휴대용 단말기에서 가속도 센서를 통해 움직임을 감지하여 카메라의 줌을 조절하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 AR을 지원하는 휴대용 단말기에서 화면에 디스플레이된 지형 혹은 지물까지의 이동 거리 및 시간 정보를 제공하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 AR을 지원하는 휴대용 단말기에서 화면에 디스플레이된 POI 정보를 이용한 웹 검색 서비스를 제공하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 AR을 지원하는 휴대용 단말기에서 POI 정보를 포함하는 영상을 획득하여 해당 POI에 태깅하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 AR을 지원하는 휴대용 단말기에서 사진 촬영 시, 사용자 얼굴을 인식하여 POI 정보를 합성하는 방법 및 장치를 제공함에 있다.
상술한 목적들을 달성하기 위한 본 발명의 제 1 견지에 따르면, 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법은, 가속도 센서를 이용하여 상기 휴대용 단말기가 지면과 수평 상태인지 여부를 판단하는 과정과, 지면과 수평 상태일 경우, 주변의 POI 정보를 포함한 지도를 디스플레이하거나 별자리 정보를 디스플레이하는 과정을 포함하는 것을 특징으로 한다.
상술한 목적들을 달성하기 위한 본 발명의 제 2 견지에 따르면, 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법은, 카메라를 구동하여 프리뷰를 수행하는 과정과, 가속도 센서를 이용하여 상기 휴대용 단말기가 전/후 방향으로 임계 거리 이상 이동되거나 바운스 혹은 스냅(snap)되는지 여부를 판단하는 과정과, 상기 전/후 방향으로 임계 거리 이상 이동되거나 바운스 혹은 스냅될 시, 상기 카메라의 줌을 조절하는 과정을 포함하는 것을 특징으로 한다.
상술한 목적들을 달성하기 위한 본 발명의 제 3 견지에 따르면, 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법은, 카메라를 구동하여 프리뷰를 수행하는 과정과, 현재 위치 정보를 획득하여 프리뷰 영상에 POI 정보를 표시하는 과정과, 영상이 캡쳐될 시, 캡쳐된 영상에 상기 POI 정보를 나타내는 그래픽 객체를 합성하는 과정을 포함하는 것을 특징으로 한다.
상술한 목적들을 달성하기 위한 본 발명의 제 4 견지에 따르면, 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 장치는, 휴대용 단말기의 자세각을 획득하는 가속도 센서와, 상기 자세각을 이용하여 상기 휴대용 단말기가 지면과 수평 상태인지 여부를 판단하는 제어부와, 상기 휴대용 단말기가 지면과 수평 상태일 경우, 상기 제어부의 제어에 따라 주변의 POI 정보를 포함한 지도를 디스플레이하거나 별자리 정보를 디스플레이하는 표시부를 포함하는 것을 특징으로 한다.
상술한 목적들을 달성하기 위한 본 발명의 제 5 견지에 따르면, 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 장치는, 영상을 입력받는 카메라와, 카메라로부터 입력된 영상을 디스플레이하여 프리뷰를 수행하는 표시부와, 상기 휴대용 단말기의 움직임을 측정하는 가속도 센서와, 상기 가속도 센서로부터 측정된 결과를 이용하여 상기 휴대용 단말기가 전/후 방향으로 임계 거리 이상 이동되거나 바운스 혹은 스냅되는지 여부를 판단하고, 상기 전/후 방향으로 임계 거리 이상 이동되거나 바운스 혹은 스냅될 시, 상기 카메라의 줌을 조절하는 는 제어부를 포함하는 것을 특징으로 한다.
상술한 목적들을 달성하기 위한 본 발명의 제 6 견지에 따르면, 휴대용 단말 기에서 영상인식 및 센서를 이용한 서비스 제공 장치는, 영상을 입력받는 카메라와, 카메라로부터 입력된 영상을 디스플레이하여 프리뷰를 수행하는 표시부와, 현재 위치 정보를 획득하는 GPS 수신기와, 상기 현재 위치 정보를 이용하여 POI 정보를 획득하고, 영상이 캡쳐될 시, 캡쳐된 영상에 상기 POI 정보를 나타내는 그래픽 객체를 합성하는 제어부를 포함하는 것을 특징으로 한다.
본 발명은 AR(Augmented Reality)을 지원하는 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스를 통해 현재 위치의 지도 정보, 별자리 정보, 이동 거리 및 시간 정보와 같은 다양한 정보들을 제공함으로써, 사용자들의 높은 기대와 다양한 기호를 만족시킬 수 있는 효과가 있다.
이하 본 발명의 바람직한 실시 예를 첨부된 도면을 참조하여 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다.
이하 본 발명에서는 AR(Augmented Reality)을 지원하는 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스를 제공하기 위한 방법 및 장치를 제공함에 있다.
도 2는 본 발명에 따라 AR을 지원하는 휴대용 단말기의 블록 구성을 도시하고 있다.
상기 도 2를 참조하면, 상기 휴대용 단말기는 제어부(200), 통신모듈(210), GPS 수신기(212), 지자기센서(214), 가속도 센서(216), 카메라(218), 표시부(220), 입력부(222) 및 저장부(224)를 포함하여 구성되며, 특히 상기 제어부(200)는 자세 추정부(202), 움직임 감지부(204), 보행자 항법 결정부(PDR: Pedestrian Dead Reckoning)(206), 영상 인식 및 처리부(208)를 포함하여 구성된다.
상기 제어부(200)는 상기 휴대용 단말기의 전반적인 동작을 제어 및 처리한다. 상기 제어부(200)는 AR 어플리케이션 실행 시, 상기 카메라(218)를 구동시키고, 상기 카메라(218)로부터 입력되는 영상을 상기 표시부(220)의 화면에 디스플레이하며, 상기 GPS 수신기(212)를 제어하여 현재 위치 정보를 획득한 후, 이를 통해 상기 영상에 포함된 지형 혹은 지물(Point Of Interest: 이하 'POI'라 칭함)의 정보를 수집하여, 상기 화면에 디스플레이하기 위한 기능을 제어 및 처리한다. 이때, 상기 POI 정보는 상기 저장부(224)를 통해 획득하거나 상기 통신 모듈(210)을 통해 외부 기기로부터 획득할 수 있다. 여기서, 상기 POI 정보는 해당 지형 혹은 지물의 이름, 위치(예: 위도, 경도), 종류(category), 지역 명, 주소, 전화번호, 상세 설명, 관련 이미지 정보를 포함하는 의미이다.
특히, 상기 제어부(200)는 본 발명에 따라 상기 자세 추정부(202), 상기 움직임 감지부(204), 상기 보행자 항법 결정부(206) 및 상기 영상 인식 및 처리 부(208)를 포함함으로써, 상기 AR 어플리케이션 실행 시에 상기 지자기센서(214), 상기 가속도 센서(216) 및 상기 카메라(218)를 이용한 서비스를 제공하기 위한 기능을 제어 및 처리한다.
상기 제어부(200)의 동작을 자세히 살펴보면, 먼저 상기 제어부(200)는 상기 자세 추정부(202)를 포함함으로써, 상기 가속도 센서(216)를 제어하여 자세각을 획득한 후, 상기 자세각을 통해 상기 휴대용 단말기가 지면에 대해 수평 상태인지 여부를 판단하고, 상기 수평 상태일 시, 상기 휴대용 단말기의 화면이 지면을 바라보는 상태인지 혹은 하늘을 바라보는 상태인지 여부를 판단한다. 상기 제어부(200)는 상기 자세 추정부(202)를 통해 상기 휴대용 단말기가 지면에 수평하며 화면이 하늘을 바라보는 상태일 경우, 컴퍼스 모드로 동작함을 결정하고, 상기 휴대용 단말기가 지면에 수평하며 화면이 지면을 바라보는 상태일 경우, 별자리 모드로 동작함을 결정한다. 여기서, 상기 제어부(200)는 상기 휴대용 단말기의 지면 수평 상태 및 화면의 방향에 따라 상기 컴퍼스 모드와 별자리 모드 중 어느 모드로 동작할지 여부를 판단하였으나, 상기 카메라(218)의 렌즈 방향에 따라 상기 컴퍼스 모드와 별자리 모드 중 어느 모드로 동작할지 여부를 판단할 수 도 있을 것이다. 또한, 여기서, 상기 제어부(200)는 상기 자세각을 통해 상기 휴대용 단말기가 지면에 대해 수평상태인지 여부를 판단한 결과, 상기 휴대용 단말기가 지면과 임계값 이하의 각을 이룰 경우, 상기 휴대용 단말기가 지면에 수평한 상태인 것으로 판단할 수 있다.
상기 제어부(200)는 컴퍼스 모드로 동작함이 결정될 시, 상기 자세 추정부(202)를 통해 상기 지자기센서(214)를 제어하여 상기 휴대용 단말기의 방향 정보 를 획득하고, 상기 GPS 수신기(212)를 제어하여 현재 위치 정보를 획득하여 상기 표시부(200)의 화면에 현재 위치에 대한 지도와 상기 방향 정보를 디스플레이한다. 이때, 상기 제어부(200)는 상기 위치 정보를 통해 주변의 POI 정보를 획득하여 상기 지도 위에 나타낼 수 있다. 이때, 상기 제어부(200)는 상기 AR 어플리케이션 실행으로 인해 상기 카메라(218)로부터 입력되는 영상을 화면에 계속적으로 디스플레이하고, 상기 지도와 방향 정보를 화면의 소정 위치에 디스플레이한다. 예를 들어, 상기 제어부(200)는 도 3(a)에 도시된 바와 같이, 카메라(218)로부터 입력되는 영상을 화면에 계속적으로 디스플레이하고, 상기 화면의 중앙에 휴대용 단말기의 방향을 나타내는 컴퍼스 형태의 지도를 디스플레이할 수 있다. 이때, 상기 컴퍼스 형태의 지도는 특정 지형 혹은 지물에 대한 POI 정보가 존재함을 아이콘으로 나타낼 수 있으며, 각 POI에 대한 거리를 나타내어 사용자가 현재 위치와 각 POI간의 거리상 관계를 파악할 수 있도록 한다. 또한, 상기 컴퍼스 형태의 지도는 상기 휴대용 단말기의 위치를 기준으로 하여 소정 각도를 표시함으로써, 상기 휴대용 단말기의 방향을 나타낼 수 있으며, 상기 각도는 상기 휴대용 단말기의 방향 변화에 따라 변경된다.
상기 제어부(200)는 별자리 모드로 동작함이 결정될 시, 상기 자세 추정부(202)를 통해 상기 GPS 수신기(212)를 제어하여 현재 위치 정보를 획득하고, 현재 위치를 기준으로 한 별자리 정보를 획득하여 상기 표시부(200)의 화면에 디스플레이한다. 이때, 상기 화면에 디스플레이되는 별자리 정보는 상기 휴대용 단말기의 위치 정보에 따라 실시간으로 변경된다. 상기 별자리 정보는 상기 저장부(224)를 통해 획득하거나 상기 통신 모듈(210)을 통해 외부 기기로부터 획득할 수 있다. 여기서, 상기 별자리 정보는 각 별자리의 위치, 이름, 유래 및 상세 설명 정보를 포함하는 의미이다. 예를 들어, 상기 제어부(200)는 도 3(b)에 도시된 바와 같이, 사용자가 휴대용 단말기를 지면에 수평한 상태로 하고, 화면이 지면으로 향하게 할 경우, 현재 위치를 중심으로 별자리를 디스플레이 할 수 있다.
또한, 상기 제어부(200)는 상기 움직임 감지부(204)를 포함함으로써, 상기 가속도 센서(216)를 제어하여 사용자에 의한 휴대용 단말기의 움직임을 감지하고, 상기 움직임에 따라 카메라(218)의 줌을 조절하기 위한 기능을 제어 및 처리한다. 즉, 상기 제어부(200)는 상기 움직임 감지부(204)를 통해 상기 가속도 센서(216)로부터 획득되는 휴대용 단말기의 이동 속도, 진동 등과 같은 움직임 정보를 이용하여 상기 휴대용 단말기가 전/후로 임계 거리 이상 이동되거나 바운스 혹은 스냅되는지 판단하고, 임계 거리 이상 이동되거나 바운스 혹은 스냅될 시 기 설정된 방식에 따라 상기 카메라의 줌을 인/아웃 시킨다. 즉, 상기 제어부(200)는 상기 가속도 센서(216)를 통해 상기 사용자가 휴대용 단말기를 임계 거리 이상 밀거나 당기는 동작을 수행하는지 혹은 상기 휴대용 단말기를 튕기듯이 밀거나 당기는 바운스 동작을 수행하는지 혹은 손목을 축으로 하여 상기 휴대용 단말기를 밀었다가 당기는 스냅 동작을 수행하는지 여부를 판단하고, 판단 결과에 따라 줌을 인/아웃 시킨다. 예를 들어, 상기 제어부(200)는 도 4에 도시된 바와 같이 사용자가 상기 휴대용 단말기를 임계 거리 이상 당기는 동작을 수행할 시 상기 카메라(218)의 줌을 소정 단계만큼 인 시키고, 상기 사용자가 휴대용 단말기를 임계 거리 이상 밀 경우 상기 카메라(218)의 줌을 소정 단계만큼 아웃 시킬 수 있다. 이때, 상기 카메라의 줌이 인/아웃되는 정도는 상기 휴대용 단말기가 전/후로 이동된 거리 혹은 바운스되거나 스냅된 정도 혹은 횟수에 따라 달라질 수 있으며, 이는 사용자 설정에 의해 변경될 수 있다. 여기서, 상기 사용자의 움직임에 따른 카메라의 줌 인/아웃 기능은 상기 휴대용 단말기가 지면에 수평 혹은 수직인 상태에 관계없이 수행될 수 있다. 예를 들어, 사용자가 상기 휴대용 단말기를 지면과 수직인 상태에서 자신의 방향으로 당기면 카메라의 줌을 인 혹은 아웃 시킬 수도 있고, 상기 휴대용 단말기를 지면과 수평인 상태에서 지면 방향으로 밀면, 카메라의 줌을 인 혹은 아웃 시킬 수 있을 것이다. 여기서, 상기 휴대용 단말기가 지면과 수직인 상태에서 전 혹은 후로 임계 거리 이동할 시, 상기 이동이 상기 사용자가 휴대용 단말기를 미는 동작인지 혹은 당기는 동작인지는 상기 휴대용 단말기의 화면 혹은 카메라가 바라보는 방향으로 이동하는지 혹은 반대 방향으로 이동하는지 여부를 통해 판단할 수도 있다.
상기 제어부(200)는 상기 보행자 항법 결정부(206)를 포함함으로써, 상기 가속도 센서(216)와 GSP 수신기(212)를 제어하여 상기 화면에 디스플레이된 영상에 포함된 POI까지의 이동거리 및 이동시간을 계산하고, 이를 상기 표시부(220)에 디스플레이한다. 예를 들어, 상기 제어부(200)는 도 5에 도시된 바와 같이, 화면에 디스플레이된 영상에 포함되는 건물까지의 이동시간을 나타낼 수 있다. 이때, 상기 제어부(200)는 상기 휴대용 단말기의 현재 위치에서 해당 POI까지의 직선거리가 아닌, 사용자가 실제 이동할 경로를 고려한 이동거리를 계산하고, 이에 따라 이동시간을 계산한다. 이때, 상기 이동시간은 소정 시간 동안에 계산된 상기 사용자의 이 동속도, 평균 이동속도를 이용하여 계산할 수 있다. 이때, 상기 평균 이동속도는 복수의 사용자들에 대한 평균 이동속도를 의미하고, 상기 사용자의 이동속도 및 상기 평균 이동속도는 사용자의 현재 이동속도와 상황별로 구분될 수도 있다. 즉, 상기 제어부(200)는 현재 속도가 임계값 이상이면, 차량을 이용한 주행 중으로 판단하여 상기 주행에 대응되는 사용자의 이동속도 혹은 평균 이동속도를 이용하고, 상기 현재 속도가 임계값 이하이면, 보행 중으로 판단하여 상기 보행에 대응되는 사용자의 이동속도 혹은 평균 이동속도를 이용할 수 있다. 또한, 상기 제어부(200)는 오르막길에서의 이동속도, 내리막길에서의 이동속도 및 계단에서의 이동속도 등과 같이 노면의 상황에 따라 구분된 이동속도를 이용하여 해당 POI까지의 이동시간을 계산할 수 있다. 이때, 상기 사용자 이동속도는 이전에 추정된 이동속도이거나 현재 추정되는 이동속도일 수 있으며, 상익 평균 이동속도는 상기 휴대용 단말기의 설계시에 미리 저장된 이동속도이거나 상기 통신 모듈(210)을 통해 외부 기기로부터 획득한 이동속도일 수 있다.
상기 제어부(200)는 상기 영상 인식 및 처리부(208)를 포함함으로써, AR 어플리케이션 실행 중에 사진 촬영 기능 즉, 캡쳐 이벤트가 발생될 시, 현재 화면에 POI 정보를 디스플레이 중인지 여부를 검사하고 상기 POI 정보를 디스플레이 중일 시, 상기 디스플레이된 POI 정보를 포함하는 영상을 캡처한다. 예를 들어, 도 6(a)에 도시된 바와 같이, 휴대용 단말기에서 AR 어플리케이션 실행 시, 화면에 디스플레이된 영상에 대응되는 POI 정보가 존재하여 상기 화면에 POI 정보가 디스플레이된 상태에서 사용자에 의해 사진 촬영 이벤트가 발생되면, 상기 휴대용 단말기 는 상기 화면을 캡쳐하여 도 6(b)에 도시된 바와 같이 POI 정보를 포함하는 영상을 획득할 수 있다. 이때, 상기 제어부(200)는 상기 POI 정보를 포함하는 영상을 상기 POI 정보에 대응되는 지형 혹은 지물에 관련된 이미지로 태깅하여 상기 저장부(224)에 저장함으로써, 도 6(c)에 도시된 바와 같이, 사용자가 지형 혹은 지물을 안내하는 관련 어플리케이션을 실행하여 해당 위치의 POI 정보를 획득하고자 할때, 상기 POI 정보를 포함하는 영상을 디스플레이할 수도 있다.
또한, 상기 제어부(200)는 상기 영상 인식 및 처리부(208)를 포함함으로써, AR 어플리케이션 실행 중에 사진 촬영 기능 즉, 캡쳐 이벤트가 발생될 시, 상기 카메라로부터 입력되는 영상을 캡처하고 상기 캡처된 영상에 사용자 얼굴이 존재하는지 여부를 검사한다. 상기 제어부(200)는 상기 사용자 얼굴이 존재할 시, 상기 GPS 수신기(212)를 통해 상기 캡처된 영상에 대응되는 POI 정보를 수집하고, 상기 POI 정보를 그래픽 객체 혹은 텍스트 코멘트 등으로 표현하여 상기 캡처된 영상에 합성하기 위한 기능을 제어 및 처리한다. 이때, 상기 제어부(200)는 상기 영상 인식 및 처리부(208)를 통해 상기 사용자 얼굴에서 입 혹은 치아를 인식하여 상기 POI 정보를 표현하는 그래픽 객체 혹은 텍스트 코멘트를 상기 입 혹은 치아 주변에 합성하여 사용자가 상기 POI 정보를 말하고 있는 듯한 효과를 줄 수 있다.
또한, 상기 제어부(200)는 상기 화면에 POI 정보가 디스플레이되었을 시, 상기 POI 정보와 웹 검색 엔진을 연동하기 위한 기능을 제어 및 처리한다. 즉, 상기 제어부(200)는 사용자가 특정 POI 정보를 선택하고, 웹 검색 이벤트를 발생시키면 상기 특정 POI 정보로부터 검색 키워드를 자동으로 추출하여 웹 검색을 수행하기 위한 기능을 제어 및 처리한다. 상기 제어부(200)는 상기 검색 키워드로, 상기 POI 정보에서 해당 지형 혹은 지물의 이름, 종류, 지역 명 혹은 주소 정보를 획득하여 웹 상에서 상기 획득된 정보로 검색이 이루어지도록 제어 및 처리한다. 이때, 상기 POI 정보에 지역 명이 존재하지 않는 경우, 주소 정보로부터 지역 명을 추출할 수 있으며, 위도와 경도를 이용하여 해당 위치의 행정구역 명을 획득하여 지역 명으로 이용할 수 있다.
상기 통신모듈(210)은 안테나(미도시)를 통해 입출력되는 데이터의 무선신호를 송수신 처리하는 기능을 수행한다. 특히, 상기 통신모듈(210)은 상기 제어부(200)의 제어 하에 외부 기기와의 무선신호를 송수신하여 POI 정보를 획득할 수 있다.
상기 GPS(Global Positioning System) 수신기(212)는 GPS 시스템으로부터 상기 휴대용 단말기의 위치를 나타내는 위치 정보 즉, 위치 좌표를 획득하여 상기 제어부(200)로 제공한다.
상기 지자기센서(214)는 상기 제어부(200)의 제어 하에 상기 휴대용 단말기의 방향을 측정하고, 측정된 방향 정보를 상기 제어부(200)로 제공한다.
상기 가속도 센서(216)는 상기 휴대용 단말기의 움직임에 대한 이동 방향, 이동속도, 자세각 등을 측정하여 상기 제어부(200)로 제공한다. 본 발명에서는 상기 가속도 센서(216)를 이용하여 휴대용 단말기의 움직임을 측정하였으나, 상기 휴대용 단말기의 움직임을 측정할 수 있는 다른 센서들을 이용할 수도 있다.
상기 카메라(218)는 카메라 센서를 통해 영상 촬영시에 감지되는 광신호를 전기적 신호로 변환하여 상기 카메라 센서로부터 촬영되는 아날로그 영상신호를 디지털 데이터로 변환하여 상기 영상 인식 및 처리부(208)로 제공한다.
상기 표시부(220)는 상기 휴대용 단말기의 상태 정보, 숫자와 문자들, 다량의 동영상 및 정지영상 등을 디스플레이한다. 특히, 상기 표시부(220)는 상기 제어부(200)의 제어에 따라 상기도 3(a)에 도시된 바와 같이, 화면의 소정 위치에 휴대용 단말기의 방향과 주변의 POI 정보를 나타내는 컴퍼스 형태의 지도를 디스플레이하고, 도 3(b)에 도시된 바와 같이, 현재 위치에 대응되는 별자리 정보를 디스플레이할 수 있다. 또한, 상기 표시부(220)는 상기 제어부(200)의 제어에 따라 도 5에 도시된 바와 같이 특정 POI까지의 이동거리 및 이동시간을 디스플레이할 수 있다.
상기 입력부(222)는 다수의 기능키와 숫자 및 문자 키를 구비하며, 사용자가 누르는 키 혹은 사용자의 터치에 대응하는 입력 데이터를 상기 제어부(200)로 제공한다.
상기 저장부(224)는 상기 휴대용 단말기의 전반적인 동작을 위한 각종 프로그램 및 데이터를 저장하며, 본 발명에 따라 POI DB(DataBase)를 포함하여 특정 지형 및 지물들에 대한 POI 정보, 예를 들어, 이름, 위치(예: 위도, 경도), 종류(category), 지역 명, 주소, 전화번호, 상세 설명, 관련 이미지 정보를 저장한다. 이때, 상기 POI DB는 미리 저장될 수도 있으며, 네트워크 혹은 외부 기기에 의해 갱신될 수 있다. 또한, 상기 저장부(224)는 본 발명에 따라 별자리 DB를 포함하여 각 별자리의 위치, 이름, 유래 및 상세 설명 정보를 저장한다.
도 7a와 도 7b는 본 발명의 실시 예에 따른 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 절차를 도시하고 있다.
상기 도 7a와 도 7b를 참조하면, 상기 휴대용 단말기는 701단계에서 AR 어플리케이션이 실행될 시, 703단계로 진행하여 카메라를 구동시켜 프리뷰를 진행하고, 705단계에서 가속도 센서 및 지자기센서를 구동시킨다. 여기서, 상기 가속도 센서 및 지자기센서를 구동시키는 것은 상기 단말의 수평 상태와 단말의 방향 및 이동 방향 등을 판단하기 위함이다.
이후, 상기 휴대용 단말기는 707단계에서 상기 휴대용 단말기가 지면과 수평상태인지 여부를 판단한다. 상기 휴대용 단말기는 상기 가속도 센서를 통해 자세각을 획득하여 상기 휴대용 단말기가 지면에 대해 수평 상태인지 여부를 판단할 수 있으며, 이때 상기 휴대용 단말기가 지면과 임계값 이하의 각을 이룰 경우, 지면에 수평한 상태인 것으로 판단할 수 있다. 상기 휴대용 단말기는 자신이 지면과 수평한 상태일 시 하기 709단계로 진행하고, 상기 지면과 수평한 상태가 아닐 시 하기 719단계로 진행한다.
상기 휴대용 단말기는 709단계에서 화면의 위치 즉, 상기 화면이 지면을 바라보는 상태인지 혹은 하늘을 바라보는 상태인지 여부를 판단한다. 만일, 상기 휴대용 단말기가 지면에 수평하며 화면이 하늘을 바라보는 상태일 경우, 상기 휴대용 단말기는 711단계에서 컴퍼스 모드로 동작함을 결정한 후, 713단계로 진행하여 현재 위치 정보를 이용하여 화면의 소정 위치에 휴대용 단말기의 방향과 주변의 지형 및 지물을 안내하는 정보 즉, POI 정보를 나타내는 컴퍼스 형태의 지도를 디스플레 이한다. 이때, 상기 휴대용 단말기의 방향은 상기 지자기센서를 통해 판단할 수 있으며, 상기 컴퍼스 형태의 지도에 소정 각도를 표시하여 나타낼 수 있다. 여기서, 상기 휴대용 단말기는 상기 프리뷰 화면을 유지한 상태에서 화면의 소정 위치에 상기 지도를 디스플레이할 수 있다. 예를 들어, 상기 도 3(a)에 도시된 바와 같이, 카메라(218)로부터 입력되는 영상을 화면에 계속적으로 디스플레이하면서, 상기 화면의 중앙에 휴대용 단말기의 방향과 주변의 POI 정보를 나타내는 컴퍼스 형태의 지도를 디스플레이할 수 있다. 이후, 상기 휴대용 단말기는 상기 707단계로 진행하여 이하 단계를 재수행한다.
반면, 상기 휴대용 단말기가 지면에 수평하며 화면이 지면을 바라보는 상태일 경우, 상기 휴대용 단말기는 715단계에서 별자리 모드로 동작함을 결정한 후, 717단계에서 현재 위치 정보를 이용하여 화면에 별자리 정보를 디스플레이한다. 이때, 상기 화면에 디스플레이되는 별자리 정보는 상기 휴대용 단말기의 위치 정보에 따라 실시간으로 변경되며, 상기 별자리 정보는 각 별자리의 위치, 이름, 유래 및 상세 설명 정보를 포함하는 의미이다. 예를 들어, 상기 도 3(b)에 도시된 바와 같이, 사용자가 휴대용 단말기를 지면에 수평한 상태로 하고, 화면이 지면으로 향하게 할 경우, 상기 휴대용 단말기는 현재 위치를 중심으로 별자리를 디스플레이 할 수 있다. 이후, 상기 휴대용 단말기는 상기 707단계로 진행하여 이하 단계를 재수행한다.
한편, 상기 707단계의 검사 결과 상기 휴대용 단말기가 지면과 수평한 상태가 아닐 경우, 상기 휴대용 단말기는 719단계로 진행하여 현재 위치정보에 따른 POI 정보를 획득하여 상기 프리뷰 화면에 디스플레이한다.
이후, 상기 휴대용 단말기는 721단계로 진행하여 상기 휴대용 단말기가 전/후 방향으로 전/후로 임계 거리 이상 이동되거나 바운스 혹은 스냅되는지 판단한다. 즉, 상기 휴대용 단말기는 상기 가속도 센서(216)를 통해 상기 사용자가 휴대용 단말기를 임계 거리 이상 밀거나 당기는 동작을 수행하는지 혹은 상기 휴대용 단말기를 튕기듯이 밀거나 당기는 바운스 동작을 수행하는지 혹은 손목을 축으로 하여 상기 휴대용 단말기를 밀었다가 당기는 스냅 동작을 수행하는지 여부를 판단한다.
만일, 상기 휴대용 단말기가 전/후로 임계 거리 이상 이동되거나 바운스 혹은 스냅될 시, 상기 휴대용 단말기는 723단계로 진행하여 상기 이동 량, 바운스 량, 혹은 스냅 강도에 따라 기 설정된 단계만큼 상기 카메라(218)의 줌을 인/아웃 시킨다. 예를 들어, 상기 휴대용 단말기는 상기 도 4에 도시된 바와 같이, 사용자가 상기 휴대용 단말기를 임계 거리 이상 당길 경우, 상기 카메라(218)의 줌을 소정 단계만큼 인 시키고, 상기 사용자가 휴대용 단말기를 임계 거리 이상 밀 경우, 상기 카메라(218)의 줌을 소정 단계만큼 아웃 시킬 수 있다. 이때, 상기 카메라의 줌이 인/아웃되는 정도는 상기 휴대용 단말기가 전/후로 이동되는 량, 바운스 량 혹은 스냅의 강도에 따라 달라질 수 있으며, 이동된 횟수, 바운스 횟수, 스냅된 횟수에 따라 달라질 수도 있다. 이때, 상기 휴대용 단말기는 상기 휴대용 단말기가 최대 임계 거리 이상 이동할 경우에는, 이를 사용자의 보행 혹은 주행으로 인한 이동으로 판단하고 상기 카메라(218)의 줌을 조절하지 않는다. 이후, 상기 휴대용 단 말기는 상기 707단계로 되돌아가 이하 단계를 재수행한다.
반면, 상기 휴대용 단말기가 전/후로 임계 거리 이상 이동되지 않고 바운스되거나 스냅되지도 않을 시, 상기 휴대용 단말기는 725단계로 진행하여 화면에 디스플레이된 POI 중 하나가 선택되는지 검사한다. 상기 휴대용 단말기는 하나의 POI가 선택될 시 하기 727단계로 진행하고, POI가 선택되지 않을 시 하기 737단계로 진행한다.
상기 하나의 POI가 선택될 시, 상기 휴대용 단말기는 727단계에서 상기 선택된 POI에 관련된 상세 정보들을 디스플레이한다. 이때, 상기 휴대용 단말기는 상기 POI까지의 이동거리 및 이동시간을 계산하여 디스플레이할 수 있다. 예를 들어, 상기 휴대용 단말기는 도 5에 도시된 바와 같이, 화면에 디스플레이된 영상에 포함되는 특정 POI까지의 이동시간을 나타낼 수 있다. 여기서, 상기 이동시간은 현재 위치에서 해당 POI까지의 직선거리가 아닌, 사용자가 실제 이동할 경로를 고려하여 계산할 수 있으며, 상기 이동시간은 소정 시간 동안에 계산된 상기 사용자의 이동속도 혹은 평균 이동속도를 이용하여 계산할 수 있다.
이후, 상기 휴대용 단말기는 729단계에서 웹 검색 기능이 선택되는지 여부를 판단한다. 상기 휴대용 단말기는 상기 웹 검색 기능이 선택되지 않을 시 하기 737단계로 진행하고, 상기 웹 검색 기능이 선택될 시 731단계에서 상기 POI 정보를 이용하여 웹 검색을 수행한다. 즉, 상기 휴대용 단말기는 상기 선택된 POI 정보로부터 검색 키워드를 자동으로 추출하여 추출된 검색 키워드로 웹 검색을 자동 수행한다. 여기서, 상기 검색 키워드는 상기 POI 정보에 포함된 해당 지형 혹은 지물의 이름, 종류, 지역 명 혹은 주소 정보 중 어느 하나일 수 있다.
이후, 상기 휴대용 단말기는 733단계에서 웹 검색 결과를 디스플레이하고, 735단계로 진행하여 AR 어플리케이션을 종료하기 위한 이벤트가 발생되거나 이전 상태로 되돌아가기 위한 이벤트가 발생되는지 검사한다. 상기 휴대용 단말기는 AR 어플리케이션을 종료하기 위한 이벤트가 발생될 시 본 발명에 따른 알고리즘을 종료하고, 상기 이전 상태로 되돌아가기 위한 이벤트가 발생될 시, 상기 719단계로 되돌아가 이하 단계를 재수행한다.
한편, 상기 휴대용 단말기는 737단계에서 캡쳐 이벤트가 발생되는지 여부를 검사한다. 상기 휴대용 단말기는 캡쳐 이벤트가 발생되지 않을 시 상기 707단계로 되돌아가 이하 단계를 재수행하고, 상기 캡쳐 이벤트가 발생될시 739단계로 진행하여 카메라로부터 입력되는 영상을 캡쳐한다.
이후, 상기 휴대용 단말기는 741단계에서 상기 캡쳐된 영상에 사용자 얼굴이 존재하는지 여부를 검사한다. 상기 캡쳐된 영상에 사용자 얼굴이 존재할 시, 상기 휴대용 단말기는 743단계로 진행하여 상기 사용자 얼굴 주변에 POI 정보를 포함하는 그래픽 객체를 합성하여 디스플레이한다. 즉, 상기 휴대용 단말기는 캡쳐된 영상에 사용자 얼굴이 존재할 시, 상기 719단계에서 수집된 POI 정보를 그래픽 객체 혹은 텍스트 코멘트 등으로 표현하여 상기 캡처된 영상에 합성한다. 이때, 상기 휴대용 단말기는 상기 사용자 얼굴에서 입 혹은 치아를 인식하여 상기 POI 정보를 표현하는 그래픽 객체 혹은 텍스트 코멘트를 상기 입 혹은 치아 주변에 합성하여 사용자가 상기 POI 정보를 말하고 있는 듯한 효과를 줄 수 있다. 이후, 상기 휴대용 단말기는 하기 747단계로 진행한다.
상기 캡쳐된 영상에 사용자 얼굴이 존재하지 않을 시, 상기 휴대용 단말기는 745단계로 진행하여 상기 캡쳐된 영상에 POI 정보를 합성하여 디스플레이한다. 여기서, 상기 휴대용 단말기는 상기 캡쳐된 영상에 POI 정보를 합성하여 디스플레이할 수도 있으나, 상기 영상 캡쳐 이벤트가 발생될 시에 POI 정보가 디스플레이되었는지 여부를 검사하여 디스플레이된 POI 정보를 영상과 함께 캡쳐할 수도 있다. 예를 들어, 상기 휴대용 단말기는 상기 도 6(b)에 도시된 바와 같이, POI 정보를 포함하는 영상을 획득하여 디스플레이한다. 이후, 상기 휴대용 단말기는 하기 747단계로 진행한다.
상기 휴대용 단말기는 747단계에서 상기 캡쳐로 획득한 영상을 저장하기 위한 이벤트가 발생되는지 여부를 검사한다. 상기 휴대용 단말기는 상기 저장 이벤트가 발생되지 않을 시 상기 707단계로 되돌아가 이하 단계를 재수행하고, 상기 저장 이벤트가 발생될 시 749단계로 진행하여 획득된 영상을 저장하고, 상기 709단계로 되돌아가 이하 단계를 재수행한다. 여기서, 상기 휴대용 단말기는 상기 POI 정보를 포함하는 영상을 상기 POI 정보에 대응되는 지형 혹은 지물에 관련된 이미지로 태깅하여 저장함으로써, 도 6(c)에 도시된 바와 같이, 사용자가 지형 혹은 지물을 안내하는 관련 어플리케이션을 실행하여 해당 위치의 POI 정보를 획득하고자 할때, 상기 POI 정보를 포함하는 영상을 디스플레이할 수 있다.
한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능하다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
도 1은 종래 기술에 따른 휴대용 단말기에서 AR 서비스를 제공하는 화면 구성을 도시하는 도면,
도 2는 본 발명에 따라 AR을 지원하는 휴대용 단말기의 블록 구성을 도시하는 도면,
도 3은 본 발명의 실시 예에 따른 휴대용 단말기에서 자세각에 따라 지도 정보 혹은 별자리 정보를 제공하는 화면 구성을 도시하는 도면,
도 4는 본 발명의 실시 예에 따른 휴대용 단말기에서 움직임에 따라 카메라의 줌을 조절하는 방식을 도시하는 도면,
도 5는 본 발명의 실시 예에 따른 휴대용 단말기에서 특정 지형 혹은 지물까지의 이동 거리 및 시간 정보를 제공하는 화면 구성을 도시하는 도면,
도 6은 본 발명의 실시 예에 따른 휴대용 단말기에서 POI 정보를 포함하는 영상을 획득하여 해당 POI에 태깅하는 화면 구성을 도시하는 도면,
도 7a와 도 7b는 본 발명의 실시 예에 따른 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 절차를 도시하는 도면.

Claims (28)

  1. 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법에 있어서,
    카메라를 구동하여 프리뷰 영상을 표시하는 과정과,
    상기 휴대용 단말기의 움직임을 측정하는 과정과,
    상기 휴대용 단말기의 움직임에 대응하여 상기 휴대용 단말기가 전방 또는 후방으로 이동한 거리를 식별하는 과정과,
    상기 이동한 거리가 제1 임계 거리 이상인 경우, 상기 이동한 거리에 대응하여 상기 카메라의 줌(zoom)을 조절하는 과정과,
    상기 이동한 거리가 제2 임계 거리 이상인 경우, 상기 카메라의 줌 조절을 제한하는 과정을 포함하며,
    상기 제1 임계 거리는, 상기 제2 임계 거리보다 작은 값으로 설정되는 방법.
  2. 제 1항에 있어서,
    상기 휴대용 단말기의 움직임에 대응하여 상기 휴대용 단말기가 바운스되는지 여부를 판단하는 과정과,
    상기 휴대용 단말기가 후방으로 바운스된 경우, 바운스 량 혹은 바운스 횟수에 기반하여 상기 카메라를 기 설정된 제2 단계만큼 줌인하는 과정과,
    상기 휴대용 단말기가 전방으로 바운스된 경우, 바운스 량 혹은 바운스 횟수에 기반하여 상기 카메라를 기 설정된 제2 단계만큼 줌아웃하는 과정을 더 포함하는 방법.
  3. 제 1항에 있어서,
    상기 휴대용 단말기의 움직임에 대응하여 상기 휴대용 단말기가 스냅되는지 여부를 판단하는 과정과,
    상기 휴대용 단말기가 후방으로 스냅된 경우, 스냅의 강도 혹은 횟수에 기반하여 상기 카메라를 기 설정된 제3 단계만큼 줌인하는 과정과,
    상기 휴대용 단말기가 전방으로 스냅된 경우, 스냅의 강도 혹은 횟수에 기반하여 상기 카메라를 기 설정된 제3 단계만큼 줌아웃하는 과정을 더 포함하는 방법.
  4. 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법에 있어서,
    카메라를 구동하여 프리뷰 영상을 표시하는 과정과,
    현재 위치 정보를 획득하여 프리뷰 영상에 POI 정보를 표시하는 과정과,
    영상이 캡쳐될 시, 캡쳐된 영상에 상기 POI 정보를 나타내는 그래픽 객체를 합성하는 과정과,
    합성된 영상을 상기 POI 정보에 해당하는 지형 혹은 지물의 이미지로 태깅하는 과정과,
    해당 위치의 POI 정보를 제공하기 위해 관련 어플리케이션을 구동하는 과정과,
    상기 POI 정보를 포함하는 합성된 영상을 상기 어플리케이션을 통해 표시하는 과정을 포함하는 방법.
  5. 제 4항에 있어서,
    상기 그래픽 객체를 합성하는 과정은,
    상기 캡쳐된 영상에 사용자 얼굴이 존재하는지 여부를 검사하는 과정과,
    상기 사용자 얼굴이 존재할 시, 상기 POI 정보를 나타내는 그래픽 객체를 사용자 얼굴 주변에 합성하는 과정을 포함하는 방법.
  6. 제 4항에 있어서,
    상기 POI 정보가 표시된 상태에서 웹 검색 기능이 수행될 시, 상기 POI 정보로부터 적어도 하나의 검색 키워드를 추출하는 과정과,
    상기 추출된 적어도 하나의 키워드를 이용하여 웹 검색을 수행하는 과정을 더 포함하는 방법.
  7. 제 4항에 있어서,
    상기 현재 위치 정보를 획득하여 프리뷰 영상에 POI 정보를 표시하는 과정은,
    상기 프리뷰 영상에 표시된 POI 정보에 대응되는 지형 혹은 지물에 대해 실제 이동경로를 고려한 이동거리와 이동시간 중 적어도 하나를 계산하여 표시하는 과정을 포함하며,
    상기 이동 시간은, 소정 시간 동안에 계산된 상기 휴대용 단말기의 사용자 이동 속도 또는 복수의 사용자들에 대한 평균 이동 속도에 기반하여 계산되는 방법.
  8. 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 장치에 있어서,
    제어부와,
    영상을 입력받도록 구성되고, 상기 제어부와 기능적으로 연결된 카메라와,
    상기 카메라로부터 입력된 영상을 이용하여 프리뷰 영상을 표시하도록 구성되고, 상기 제어부와 기능적으로 연결된 표시부와,
    상기 휴대용 단말기의 움직임을 측정하도록 구성되고, 상기 제어부와 기능적으로 연결된 가속도 센서를 포함하며,
    상기 제어부는,
    상기 휴대용 단말기의 움직임에 대응하여 상기 휴대용 단말기가 전방 또는 후방으로 이동한 거리를 식별하도록 구성되고, 상기 이동한 거리가 제1 임계 거리 이상인 경우, 상기 이동한 거리에 대응하여 상기 카메라의 줌(zoom)을 조절하도록 구성되고, 상기 이동한 거리가 제2 임계거리 이상인 경우, 상기 카메라의 줌 조절을 제한하도록 구성되며,
    상기 제1 임계 거리는, 상기 제2 임계 거리보다 작은 값으로 설정되는 장치.
  9. 제 8항에 있어서,
    상기 제어부는,
    상기 휴대용 단말기의 움직임에 대응하여 상기 휴대용 단말기가 바운스되는지 여부를 판단하도록 구성되고, 상기 휴대용 단말기가 후방으로 바운스된 경우, 바운스 량 혹은 바운스 횟수에 기반하여 기 설정된 제2 단계만큼 상기 카메라를 줌인하도록 구성되고, 상기 휴대용 단말기가 전방으로 바운스된 경우, 바운스 량 혹은 바운스 횟수에 기반하여 기 설정된 제2 단계만큼 상기 카메라를 줌아웃하도록 구성되는 장치.
  10. 제 8항에 있어서,
    상기 제어부는,
    상기 휴대용 단말기의 움직임에 대응하여 상기 휴대용 단말기가 스냅되는지 여부를 판단하도록 구성되고, 상기 휴대용 단말기가 후방으로 스냅된 경우, 스냅의 강도 혹은 횟수에 기반하여 기 설정된 제3 단계만큼 상기 카메라를 줌인하도록 구성되고, 상기 휴대용 단말기가 전방으로 스냅된 경우, 스냅의 강도 혹은 횟수에 기반하여 기 설정된 제3 단계만큼 상기 카메라를 줌아웃하도록 구성되며, 상기 스냅은 상기 휴대용 단말기가 사용자의 손목을 축으로 하여 밀렸다가 당겨지는 동작인 장치.
  11. 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 장치에 있어서,
    제어부와,
    영상을 입력받도록 구성되고, 상기 제어부와 기능적으로 연결된 카메라와,
    상기 카메라로부터 입력된 영상을 디스플레이하여 프리뷰 영상을 표시하도록 구성되고, 상기 제어부와 기능적으로 연결된 표시부와,
    현재 위치 정보를 획득하도록 구성되고, 상기 제어부와 기능적으로 연결된 GPS 수신기를 포함하며,
    상기 제어부는,
    상기 현재 위치 정보를 이용하여 POI 정보를 획득하도록 구성되고, 영상이 캡쳐될 시, 캡쳐된 영상에 상기 POI 정보를 나타내는 그래픽 객체를 합성하도록 구성되고, 합성된 영상을 상기 POI 정보에 해당하는 지형 혹은 지물의 이미지로 태깅하도록 구성되고, 해당 위치의 POI 정보를 제공하기 위해 관련 어플리케이션을 구동하도록 구성되고, 상기 POI 정보를 포함하는 합성된 영상을 상기 어플리케이션을 이용하여 상기 표시부를 통해 표시하도록 구성되는 장치.
  12. 제 11항에 있어서,
    상기 제어부는,
    상기 캡쳐된 영상에 사용자 얼굴이 존재하는지 여부를 검사하도록 구성되고, 상기 사용자 얼굴이 존재할 시, 상기 POI 정보를 나타내는 그래픽 객체를 사용자 얼굴 주변에 합성하도록 구성되는 장치.
  13. 제 11항에 있어서,
    상기 제어부는,
    상기 POI 정보를 화면에 표시된 상태에서 웹 검색 기능이 수행될 시, 상기 POI 정보로부터 검색 키워드를 추출하도록 구성되고, 상기 추출된 적어도 하나의 키워드를 이용하여 자동으로 웹 검색을 수행하기 위한 기능을 제어하도록 구성되는 장치.
  14. 제 11항에 있어서,
    상기 제어부는,
    상기 프리뷰 영상에 포함된 지형 혹은 지물에 대해 실제 이동경로를 고려한 이동거리와 이동시간 중 적어도 하나를 계산하여 표시하기 위한 기능을 제어하도록 구성되고, 소정 시간 동안에 계산된 상기 휴대용 단말기의 사용자 이동속도 혹은 복수의 사용자들에 대한 평균 이동속도를 이용하여 상기 이동시간을 계산하도록 구성되는 장치.
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
  28. 삭제
KR1020090090427A 2009-09-24 2009-09-24 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치 KR101648339B1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020090090427A KR101648339B1 (ko) 2009-09-24 2009-09-24 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치
EP19206727.0A EP3637050A1 (en) 2009-09-24 2010-09-21 Method and apparatus for providing service using a sensor and image recognition in a portable terminal
EP10177759.7A EP2302322B1 (en) 2009-09-24 2010-09-21 Method and apparatus for providing location-based services using a sensor and image recognition in a portable terminal
US12/924,253 US9410810B2 (en) 2009-09-24 2010-09-23 Method and apparatus for providing service using a sensor and image recognition in a portable terminal
US15/231,632 US9915544B2 (en) 2009-09-24 2016-08-08 Method and apparatus for providing service using a sensor and image recognition in a portable terminal
US15/888,551 US10190885B2 (en) 2009-09-24 2018-02-05 Method and apparatus for providing service using a sensor and image recognition in a portable terminal
US16/259,158 US10578452B2 (en) 2009-09-24 2019-01-28 Method and apparatus for providing service using a sensor and image recognition in a portable terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090090427A KR101648339B1 (ko) 2009-09-24 2009-09-24 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20110032765A KR20110032765A (ko) 2011-03-30
KR101648339B1 true KR101648339B1 (ko) 2016-08-17

Family

ID=43222011

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090090427A KR101648339B1 (ko) 2009-09-24 2009-09-24 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치

Country Status (3)

Country Link
US (4) US9410810B2 (ko)
EP (2) EP2302322B1 (ko)
KR (1) KR101648339B1 (ko)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9420251B2 (en) * 2010-02-08 2016-08-16 Nikon Corporation Imaging device and information acquisition system in which an acquired image and associated information are held on a display
KR101330805B1 (ko) * 2010-08-18 2013-11-18 주식회사 팬택 증강 현실 제공 장치 및 방법
KR20120085474A (ko) * 2011-01-24 2012-08-01 삼성전자주식회사 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 저장매체
JP2012155655A (ja) * 2011-01-28 2012-08-16 Sony Corp 情報処理装置、報知方法及びプログラム
JP5765019B2 (ja) 2011-03-31 2015-08-19 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
US10353566B2 (en) * 2011-09-09 2019-07-16 Microsoft Technology Licensing, Llc Semantic zoom animations
US9639857B2 (en) * 2011-09-30 2017-05-02 Nokia Technologies Oy Method and apparatus for associating commenting information with one or more objects
US9230367B2 (en) * 2011-12-13 2016-01-05 Here Global B.V. Augmented reality personalization
US8930141B2 (en) * 2011-12-30 2015-01-06 Nokia Corporation Apparatus, method and computer program for displaying points of interest
CN103197980B (zh) * 2012-01-10 2016-03-30 华为终端有限公司 一种呈现增强现实技术内容的方法、装置及系统
JP5573859B2 (ja) * 2012-02-09 2014-08-20 コニカミノルタ株式会社 エアタグ情報登録装置、エアタグ情報登録システムおよびプログラム
CN103295023A (zh) * 2012-02-24 2013-09-11 联想(北京)有限公司 一种增强现实信息的显示方法及装置
JP5891843B2 (ja) * 2012-02-24 2016-03-23 ソニー株式会社 クライアント端末、サーバ、およびプログラム
US9325797B2 (en) * 2012-02-29 2016-04-26 Google Inc. System and method for requesting an updated user location
FR2987921A1 (fr) * 2012-03-07 2013-09-13 Alcatel Lucent Procede de communication et d'informations en realite augmentee
US9077884B2 (en) * 2012-03-21 2015-07-07 Htc Corporation Electronic devices with motion response and related methods
ITPI20120043A1 (it) * 2012-04-12 2013-10-13 Luciano Marras Sistema wireless per la fruizione interattiva di contenuti in realtà aumentata in percorsi di visita realizzati tramite supporti informatici mobili
KR101356192B1 (ko) * 2012-04-26 2014-01-24 서울시립대학교 산학협력단 영상매칭 기반의 스마트폰의 위치자세 결정 방법 및 시스템
KR101879857B1 (ko) * 2012-05-04 2018-07-18 주식회사 케이티 가상 태깅 동작을 이용한 서비스 제공 방법 및 시스템
US9201974B2 (en) * 2012-08-31 2015-12-01 Nokia Technologies Oy Method and apparatus for incorporating media elements from content items in location-based viewing
KR101427715B1 (ko) * 2012-12-31 2014-08-07 아주대학교산학협력단 큐알 코드 인식 장치 및 방법
CN103105993B (zh) * 2013-01-25 2015-05-20 腾讯科技(深圳)有限公司 基于增强现实技术实现互动的方法和系统
CN104008744B (zh) * 2013-02-25 2016-08-17 联想(北京)有限公司 显示方法和电子设备
US9596404B2 (en) * 2013-10-23 2017-03-14 Nokia Technologies Oy Method and apparatus for generating a media capture request using camera pose information
US9693186B1 (en) * 2014-04-09 2017-06-27 Google Inc. Storing interactions based on location
US9830561B2 (en) 2014-04-30 2017-11-28 Amadeus S.A.S. Visual booking system
CN104596523B (zh) 2014-06-05 2019-05-07 腾讯科技(深圳)有限公司 一种街景目的地引导方法和设备
US9699610B1 (en) 2014-12-26 2017-07-04 Groupon, Inc. Location based discovery of real-time merchant device activity
US10080104B2 (en) 2015-07-17 2018-09-18 International Business Machines Corporation Location based services using location and motion information
CN105657294A (zh) * 2016-03-09 2016-06-08 北京奇虎科技有限公司 在移动终端上呈现虚拟特效的方法及装置
KR101806957B1 (ko) * 2016-06-02 2017-12-11 네이버 주식회사 관심 지점의 자동 업데이트를 위한 방법 및 시스템
CN106101574B (zh) * 2016-06-28 2019-04-23 Oppo广东移动通信有限公司 一种图像增强现实的控制方法、装置和移动终端
US10026023B2 (en) * 2016-08-11 2018-07-17 International Business Machines Corporation Sentiment based social media comment overlay on image posts
US10373358B2 (en) * 2016-11-09 2019-08-06 Sony Corporation Edge user interface for augmenting camera viewfinder with information
EP3322149B1 (en) * 2016-11-10 2023-09-13 Tata Consultancy Services Limited Customized map generation with real time messages and locations from concurrent users
CN106773051B (zh) * 2016-12-28 2020-05-15 北京中投视讯文化传媒股份有限公司 展示ar标识物虚拟营养信息的增强现实装置及其方法
CN107843253B (zh) * 2017-10-30 2021-06-01 Oppo广东移动通信有限公司 导航控制方法、移动终端以及计算机可读存储介质
US11194464B1 (en) 2017-11-30 2021-12-07 Amazon Technologies, Inc. Display control using objects
US10338768B1 (en) * 2017-12-10 2019-07-02 International Business Machines Corporation Graphical user interface for finding and depicting individuals
US10521961B2 (en) 2017-12-10 2019-12-31 International Business Machines Corporation Establishing a region of interest for a graphical user interface for finding and depicting individuals
WO2019164514A1 (en) * 2018-02-23 2019-08-29 Google Llc Transitioning between map view and augmented reality view
KR102664710B1 (ko) 2018-08-08 2024-05-09 삼성전자주식회사 외부 객체의 위치의 변화에 따라 외부 객체에 대응하는 아바타를 표시하기 위한 전자 장치
CN109725717A (zh) * 2018-11-30 2019-05-07 成都理想境界科技有限公司 应用于ar设备的图像处理方法及ar设备
KR102543695B1 (ko) 2019-01-18 2023-06-16 삼성전자주식회사 영상 처리 방법 및 이를 지원하는 전자 장치
KR102627612B1 (ko) * 2019-02-19 2024-01-22 삼성전자주식회사 증강현실을 이용한 주변 정보 표시 방법 및 그 전자 장치
US11089439B2 (en) * 2019-07-02 2021-08-10 Charles Hohman Systems and methods for real-world networking using augmented reality interface
CN110248165B (zh) * 2019-07-02 2021-04-06 高新兴科技集团股份有限公司 标签显示方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004191642A (ja) * 2002-12-11 2004-07-08 Fuji Photo Film Co Ltd 画像表示装置

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS618756A (ja) 1984-06-20 1986-01-16 Sony Corp 磁気記録再生装置
JP3275058B2 (ja) * 1992-07-10 2002-04-15 三菱電機株式会社 ビデオカメラ
DE19852660C2 (de) * 1998-11-16 2001-03-08 Bosch Gmbh Robert Vorrichtung zur Eingabe von Fahrzielen in eine Navigationsvorrichtung
EP1205763A1 (en) * 2000-11-09 2002-05-15 Texas Instruments Incorporated Wireless location
JP3729161B2 (ja) * 2001-08-07 2005-12-21 カシオ計算機株式会社 目標位置探索装置、目標位置探索方法及びプログラム
AU2003223090A1 (en) * 2002-04-30 2003-11-17 Telmap Ltd. Template-based map distribution system
US6801855B1 (en) * 2002-06-28 2004-10-05 Garmin Ltd. Systems and methods with integrated GPS and dead reckoning capabilities
JP4113387B2 (ja) * 2002-07-24 2008-07-09 シャープ株式会社 携帯端末装置並びに情報読取プログラム及びそのプログラムを記録した記録媒体
US6836723B2 (en) * 2002-11-29 2004-12-28 Alpine Electronics, Inc Navigation method and system
US6975959B2 (en) * 2002-12-03 2005-12-13 Robert Bosch Gmbh Orientation and navigation for a mobile device using inertial sensors
US7411493B2 (en) * 2003-03-01 2008-08-12 User-Centric Ip, L.P. User-centric event reporting
US7248159B2 (en) * 2003-03-01 2007-07-24 User-Centric Ip, Lp User-centric event reporting
JP4144555B2 (ja) * 2003-06-09 2008-09-03 カシオ計算機株式会社 電子機器、表示制御方法及びプログラム
JP4447865B2 (ja) * 2003-08-01 2010-04-07 ソニー株式会社 地図表示システム、地図データ加工装置、地図表示装置及び地図表示方法
KR100651508B1 (ko) * 2004-01-30 2006-11-29 삼성전자주식회사 증강현실을 이용한 지역 정보 제공 방법 및 이를 위한지역 정보 서비스 시스템
KR100591275B1 (ko) * 2004-03-11 2006-06-19 주식회사 파인디지털 Poi 코드번호를 이용한 항법장치 운용 시스템과 방법
US7365735B2 (en) * 2004-03-23 2008-04-29 Fujitsu Limited Translation controlled cursor
EP1769635A2 (en) * 2004-06-01 2007-04-04 L-3 Communications Corporation Modular immersive surveillance processing system and method.
US7460953B2 (en) * 2004-06-30 2008-12-02 Navteq North America, Llc Method of operating a navigation system using images
US20060104483A1 (en) * 2004-11-12 2006-05-18 Eastman Kodak Company Wireless digital image capture device with biometric readers
KR100678110B1 (ko) * 2004-12-22 2007-02-02 삼성전자주식회사 휴대용 단말기의 움직임을 이용한 촬영방법
WO2006087709A1 (en) * 2005-02-17 2006-08-24 Lumus Ltd. Personal navigation system
US8040361B2 (en) * 2005-04-11 2011-10-18 Systems Technology, Inc. Systems and methods for combining virtual and real-time physical environments
US7728869B2 (en) * 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
US7746343B1 (en) * 2005-06-27 2010-06-29 Google Inc. Streaming and interactive visualization of filled polygon data in a geographic information system
US20070120844A1 (en) * 2005-11-28 2007-05-31 Baumer Optronic Gmbh Method and apparatus for the graphical operation of real-time image processing systems
KR100667853B1 (ko) * 2006-01-25 2007-01-11 삼성전자주식회사 휴대용 기기의 화면 스크롤 장치 및 방법과 그 방법을수행하는 프로그램이 기록된 기록 매체
US7516010B1 (en) * 2006-01-27 2009-04-07 Navteg North America, Llc Method of operating a navigation system to provide parking availability information
US20070097151A1 (en) * 2006-04-07 2007-05-03 Outland Research, Llc Behind-screen zoom for handheld computing devices
US20070268246A1 (en) * 2006-05-17 2007-11-22 Edward Craig Hyatt Electronic equipment with screen pan and zoom functions using motion
US8989778B2 (en) * 2006-06-01 2015-03-24 Green Dot Corporation Secure and private location sharing for location-aware mobile communication devices
US8571580B2 (en) * 2006-06-01 2013-10-29 Loopt Llc. Displaying the location of individuals on an interactive map display on a mobile communication device
US20080147730A1 (en) * 2006-12-18 2008-06-19 Motorola, Inc. Method and system for providing location-specific image information
US8462109B2 (en) * 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
EP2153377A4 (en) * 2007-05-04 2017-05-31 Qualcomm Incorporated Camera-based user input for compact devices
US8254684B2 (en) * 2008-01-02 2012-08-28 Yahoo! Inc. Method and system for managing digital photos
US9582937B2 (en) * 2008-01-02 2017-02-28 Nokia Technologies Oy Method, apparatus and computer program product for displaying an indication of an object within a current field of view
US8423076B2 (en) * 2008-02-01 2013-04-16 Lg Electronics Inc. User interface for a mobile device
US8446373B2 (en) * 2008-02-08 2013-05-21 Synaptics Incorporated Method and apparatus for extended adjustment based on relative positioning of multiple objects contemporaneously in a sensing region
US9200901B2 (en) * 2008-06-19 2015-12-01 Microsoft Technology Licensing, Llc Predictive services for devices supporting dynamic direction information
US8467991B2 (en) * 2008-06-20 2013-06-18 Microsoft Corporation Data services based on gesture and location information of device
WO2010002921A1 (en) * 2008-07-01 2010-01-07 Yoostar Entertainment Group, Inc. Interactive systems and methods for video compositing
KR20100055254A (ko) * 2008-11-17 2010-05-26 엘지전자 주식회사 이동 단말기의 poi 정보 제공 방법 및 그 장치
US8351910B2 (en) * 2008-12-02 2013-01-08 Qualcomm Incorporated Method and apparatus for determining a user input from inertial sensors
KR101467796B1 (ko) * 2009-01-12 2014-12-10 엘지전자 주식회사 이동단말기 및 그 제어 방법
US20100182340A1 (en) * 2009-01-19 2010-07-22 Bachelder Edward N Systems and methods for combining virtual and real-time physical environments
US20110050730A1 (en) * 2009-08-31 2011-03-03 Paul Ranford Method of displaying data on a portable electronic device according to detected movement of the portable electronic device
US9810533B2 (en) * 2011-04-27 2017-11-07 Trimble Inc. Railway track monitoring
US9031543B2 (en) * 2012-06-06 2015-05-12 Qualcomm Incorporated Visualization of network members based on location and direction
KR102114377B1 (ko) * 2013-07-05 2020-05-25 삼성전자주식회사 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치
JP6291144B2 (ja) * 2015-09-11 2018-03-14 富士フイルム株式会社 走行支援装置及び走行支援装置による走行支援方法
GB2545900B (en) * 2015-12-21 2020-08-12 Canon Kk Method, device, and computer program for re-identification of objects in images obtained from a plurality of cameras

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004191642A (ja) * 2002-12-11 2004-07-08 Fuji Photo Film Co Ltd 画像表示装置

Also Published As

Publication number Publication date
US20160349071A1 (en) 2016-12-01
US9915544B2 (en) 2018-03-13
US20110071757A1 (en) 2011-03-24
EP2302322B1 (en) 2019-12-18
EP3637050A1 (en) 2020-04-15
US10578452B2 (en) 2020-03-03
EP2302322A3 (en) 2016-12-07
US20190154458A1 (en) 2019-05-23
KR20110032765A (ko) 2011-03-30
US9410810B2 (en) 2016-08-09
EP2302322A2 (en) 2011-03-30
US20180156628A1 (en) 2018-06-07
US10190885B2 (en) 2019-01-29

Similar Documents

Publication Publication Date Title
KR101648339B1 (ko) 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치
JP6763448B2 (ja) 視覚強化ナビゲーション
KR102021050B1 (ko) 내비게이션 정보를 제공하는 방법, 기계로 읽을 수 있는 저장 매체, 이동 단말 및 서버
US7088389B2 (en) System for displaying information in specific region
KR101285360B1 (ko) 증강현실을 이용한 관심 지점 표시 장치 및 방법
KR101330805B1 (ko) 증강 현실 제공 장치 및 방법
JP4380550B2 (ja) 車載用撮影装置
KR20220028042A (ko) 포즈 결정 방법, 장치, 전자 기기, 저장 매체 및 프로그램
JP5571498B2 (ja) 周囲情報検索装置及び周囲情報検索方法
WO2005124594A1 (en) Automatic, real-time, superimposed labeling of points and objects of interest within a view
KR101259598B1 (ko) 로드뷰 제공 장치 및 방법
JP2013175883A (ja) クライアント端末、サーバ、およびプログラム
JP6087712B2 (ja) 分布データ表示装置、方法及びプログラム
JP4077385B2 (ja) 画像処理を用いたグローバル座標取得装置
KR20100060549A (ko) 지형지물 인식방법
CN113063421A (zh) 导航方法及相关装置、移动终端、计算机可读存储介质
CN114549633A (zh) 位姿检测方法、装置、电子设备和存储介质
JP2006125871A (ja) ナビゲーション装置
WO2012004622A1 (en) An augmented reality method, and a corresponding system and software
JP2016195323A (ja) 情報処理装置、情報処理方法、プログラム
CN116295406A (zh) 一种室内三维定位方法及系统
JP4556096B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP2006047147A (ja) 情報提供装置
JP2010171664A (ja) 携帯情報端末、情報表示制御方法、及び、情報表示制御プログラム
JP2014066595A (ja) ナビゲーション装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190730

Year of fee payment: 4