KR101648339B1 - 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치 - Google Patents
휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치 Download PDFInfo
- Publication number
- KR101648339B1 KR101648339B1 KR1020090090427A KR20090090427A KR101648339B1 KR 101648339 B1 KR101648339 B1 KR 101648339B1 KR 1020090090427 A KR1020090090427 A KR 1020090090427A KR 20090090427 A KR20090090427 A KR 20090090427A KR 101648339 B1 KR101648339 B1 KR 101648339B1
- Authority
- KR
- South Korea
- Prior art keywords
- portable terminal
- image
- camera
- poi information
- information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000001133 acceleration Effects 0.000 claims abstract description 21
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 210000000707 wrist Anatomy 0.000 claims description 2
- 230000003190 augmentative effect Effects 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 3
- 239000002131 composite material Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3623—Destination input or retrieval using a camera or code reader, e.g. for optical or magnetic codes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3446—Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
- G01C21/3492—Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3644—Landmark guidance, e.g. using POIs or conspicuous other objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3679—Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/02—Viewfinders
- G03B13/10—Viewfinders adjusting viewfinders field
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/142—Image acquisition using hand-held instruments; Constructional details of the instruments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00127—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
- H04N1/00281—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal
- H04N1/00307—Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a telecommunication apparatus, e.g. a switched network of teleprinters for the distribution of text-based information, a selective call terminal with a mobile telephone apparatus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32128—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2101/00—Still video cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/0077—Types of the still picture apparatus
- H04N2201/0084—Digital still camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N2201/3201—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N2201/3225—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
- H04N2201/3245—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of image modifying data, e.g. handwritten addenda, highlights or augmented reality information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N2201/3201—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N2201/3225—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
- H04N2201/3252—Image capture parameters, e.g. resolution, illumination conditions, orientation of the image capture device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N2201/3201—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N2201/3225—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
- H04N2201/3253—Position information, e.g. geographical position at time of capture, GPS data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N2201/3201—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N2201/3273—Display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N2201/3201—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N2201/328—Processing of the additional information
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
- Navigation (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치에 관한 것으로서, 가속도 센서를 이용하여 상기 휴대용 단말기가 지면과 수평 상태인지 여부를 판단하는 과정과, 지면과 수평 상태일 경우, 주변의 POI 정보를 포함한 지를 디스플레이하거나 별자리 정보를 디스플레이하는 과정을 포함하여, 현재 위치의 지도 정보, 별자리 정보, 이동 거리 및 시간 정보와 같은 다양한 정보들을 제공하며, 사용자들의 높은 기대와 다양한 기호를 만족시킬 수 있다.
AR(Augmented Reality), POI, 컴퍼스(compass), 줌(Zoom)
Description
본 발명은 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치에 관한 것으로서, 특히, AR(Augmented Reality)를 지원하는 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스를 제공하는 방법 및 장치에 관한 것이다.
오늘날, 통신 기술이 급격하게 발달함에 따라, 사용자들이 가상세계와 현실세계를 동시에 즐길 수 있도록 하기 위한 다양한 서비스들이 제공되고 있다. 일 예로 휴대용 단말기에서 카메라를 통해 입력되는 실물의 영상 위에 상기 실물에 관련된 설명을 나타내는 그래픽 혹은 텍스트 형태의 영상을 겹쳐 보여주는 AR(Augmented Reality) 서비스가 제공되고 있다.
도 1은 종래 기술에 따른 휴대용 단말기에서 AR 서비스를 제공하는 화면 구성을 도시하고 있다.
상기 도 1에 도시된 바와 같이, 종래 기술에 따른 휴대용 단말기는 사용자가 AR 어플리케이션을 실행시키면, 카메라를 구동시켜 상기 카메라로부터 입력되는 영상을 화면에 디스플레이하고, 상기 입력되는 영상에 포함된 지형 혹은 지물의 정보를 현재 위치 정보를 통해 수집한 후, 상기 화면에 디스플레이한다. 이는, 사용자가 주변의 지형 혹은 지물(Point Of Interest: 이하 'POI'라 칭함)에 관련된 정보를 얻기 위해 책을 찾거나 인터넷을 검색하는 등의 동작을 수행하지 않고서도, 단순히 휴대용 단말기에서 상기 AR 어플리케이션 실행하여 해당 지형 혹은 지물을 촬영함으로써, POI 정보를 획득할 수 있도록 하는 장점이 있다.
하지만, 최근에는 휴대용 단말기가 많이 사용됨에 따라 상기 휴대용 단말기에서 제공하는 각종 서비스의 기능들에 대한 사용자들의 기대와 요구가 점점 높아지고 있다. 따라서, 상기 사용자들의 높은 기대와 다양한 기호를 만족시키기 위해 상기 AR 서비스를 좀 더 폭 넓게 즐길 수 있는 다양한 기능들이 제공될 필요성이 있다.
본 발명은 상술한 바와 같은 문제점을 해결하기 위해 도출된 것으로서, 본 발명의 목적은 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치를 제공함에 있다.
본 발명의 다른 목적은 AR(Augmented Reality)을 지원하는 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스를 제공하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 AR을 지원하는 휴대용 단말기에서 가속도 센서를 통해 자세각을 획득하여 현재 위치의 지도 정보를 제공하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 AR을 지원하는 휴대용 단말기에서 가속도 센서를 통해 자세각을 획득하여 현재 위치의 별자리 정보를 제공하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 AR을 지원하는 휴대용 단말기에서 지자기센서를 통해 방향 정보를 제공하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 AR을 지원하는 휴대용 단말기에서 가속도 센서를 통해 움직임을 감지하여 카메라의 줌을 조절하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 AR을 지원하는 휴대용 단말기에서 화면에 디스플레이된 지형 혹은 지물까지의 이동 거리 및 시간 정보를 제공하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 AR을 지원하는 휴대용 단말기에서 화면에 디스플레이된 POI 정보를 이용한 웹 검색 서비스를 제공하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 AR을 지원하는 휴대용 단말기에서 POI 정보를 포함하는 영상을 획득하여 해당 POI에 태깅하는 방법 및 장치를 제공함에 있다.
본 발명의 또 다른 목적은 AR을 지원하는 휴대용 단말기에서 사진 촬영 시, 사용자 얼굴을 인식하여 POI 정보를 합성하는 방법 및 장치를 제공함에 있다.
상술한 목적들을 달성하기 위한 본 발명의 제 1 견지에 따르면, 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법은, 가속도 센서를 이용하여 상기 휴대용 단말기가 지면과 수평 상태인지 여부를 판단하는 과정과, 지면과 수평 상태일 경우, 주변의 POI 정보를 포함한 지도를 디스플레이하거나 별자리 정보를 디스플레이하는 과정을 포함하는 것을 특징으로 한다.
상술한 목적들을 달성하기 위한 본 발명의 제 2 견지에 따르면, 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법은, 카메라를 구동하여 프리뷰를 수행하는 과정과, 가속도 센서를 이용하여 상기 휴대용 단말기가 전/후 방향으로 임계 거리 이상 이동되거나 바운스 혹은 스냅(snap)되는지 여부를 판단하는 과정과, 상기 전/후 방향으로 임계 거리 이상 이동되거나 바운스 혹은 스냅될 시, 상기 카메라의 줌을 조절하는 과정을 포함하는 것을 특징으로 한다.
상술한 목적들을 달성하기 위한 본 발명의 제 3 견지에 따르면, 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법은, 카메라를 구동하여 프리뷰를 수행하는 과정과, 현재 위치 정보를 획득하여 프리뷰 영상에 POI 정보를 표시하는 과정과, 영상이 캡쳐될 시, 캡쳐된 영상에 상기 POI 정보를 나타내는 그래픽 객체를 합성하는 과정을 포함하는 것을 특징으로 한다.
상술한 목적들을 달성하기 위한 본 발명의 제 4 견지에 따르면, 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 장치는, 휴대용 단말기의 자세각을 획득하는 가속도 센서와, 상기 자세각을 이용하여 상기 휴대용 단말기가 지면과 수평 상태인지 여부를 판단하는 제어부와, 상기 휴대용 단말기가 지면과 수평 상태일 경우, 상기 제어부의 제어에 따라 주변의 POI 정보를 포함한 지도를 디스플레이하거나 별자리 정보를 디스플레이하는 표시부를 포함하는 것을 특징으로 한다.
상술한 목적들을 달성하기 위한 본 발명의 제 5 견지에 따르면, 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 장치는, 영상을 입력받는 카메라와, 카메라로부터 입력된 영상을 디스플레이하여 프리뷰를 수행하는 표시부와, 상기 휴대용 단말기의 움직임을 측정하는 가속도 센서와, 상기 가속도 센서로부터 측정된 결과를 이용하여 상기 휴대용 단말기가 전/후 방향으로 임계 거리 이상 이동되거나 바운스 혹은 스냅되는지 여부를 판단하고, 상기 전/후 방향으로 임계 거리 이상 이동되거나 바운스 혹은 스냅될 시, 상기 카메라의 줌을 조절하는 는 제어부를 포함하는 것을 특징으로 한다.
상술한 목적들을 달성하기 위한 본 발명의 제 6 견지에 따르면, 휴대용 단말 기에서 영상인식 및 센서를 이용한 서비스 제공 장치는, 영상을 입력받는 카메라와, 카메라로부터 입력된 영상을 디스플레이하여 프리뷰를 수행하는 표시부와, 현재 위치 정보를 획득하는 GPS 수신기와, 상기 현재 위치 정보를 이용하여 POI 정보를 획득하고, 영상이 캡쳐될 시, 캡쳐된 영상에 상기 POI 정보를 나타내는 그래픽 객체를 합성하는 제어부를 포함하는 것을 특징으로 한다.
본 발명은 AR(Augmented Reality)을 지원하는 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스를 통해 현재 위치의 지도 정보, 별자리 정보, 이동 거리 및 시간 정보와 같은 다양한 정보들을 제공함으로써, 사용자들의 높은 기대와 다양한 기호를 만족시킬 수 있는 효과가 있다.
이하 본 발명의 바람직한 실시 예를 첨부된 도면을 참조하여 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다.
이하 본 발명에서는 AR(Augmented Reality)을 지원하는 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스를 제공하기 위한 방법 및 장치를 제공함에 있다.
도 2는 본 발명에 따라 AR을 지원하는 휴대용 단말기의 블록 구성을 도시하고 있다.
상기 도 2를 참조하면, 상기 휴대용 단말기는 제어부(200), 통신모듈(210), GPS 수신기(212), 지자기센서(214), 가속도 센서(216), 카메라(218), 표시부(220), 입력부(222) 및 저장부(224)를 포함하여 구성되며, 특히 상기 제어부(200)는 자세 추정부(202), 움직임 감지부(204), 보행자 항법 결정부(PDR: Pedestrian Dead Reckoning)(206), 영상 인식 및 처리부(208)를 포함하여 구성된다.
상기 제어부(200)는 상기 휴대용 단말기의 전반적인 동작을 제어 및 처리한다. 상기 제어부(200)는 AR 어플리케이션 실행 시, 상기 카메라(218)를 구동시키고, 상기 카메라(218)로부터 입력되는 영상을 상기 표시부(220)의 화면에 디스플레이하며, 상기 GPS 수신기(212)를 제어하여 현재 위치 정보를 획득한 후, 이를 통해 상기 영상에 포함된 지형 혹은 지물(Point Of Interest: 이하 'POI'라 칭함)의 정보를 수집하여, 상기 화면에 디스플레이하기 위한 기능을 제어 및 처리한다. 이때, 상기 POI 정보는 상기 저장부(224)를 통해 획득하거나 상기 통신 모듈(210)을 통해 외부 기기로부터 획득할 수 있다. 여기서, 상기 POI 정보는 해당 지형 혹은 지물의 이름, 위치(예: 위도, 경도), 종류(category), 지역 명, 주소, 전화번호, 상세 설명, 관련 이미지 정보를 포함하는 의미이다.
특히, 상기 제어부(200)는 본 발명에 따라 상기 자세 추정부(202), 상기 움직임 감지부(204), 상기 보행자 항법 결정부(206) 및 상기 영상 인식 및 처리 부(208)를 포함함으로써, 상기 AR 어플리케이션 실행 시에 상기 지자기센서(214), 상기 가속도 센서(216) 및 상기 카메라(218)를 이용한 서비스를 제공하기 위한 기능을 제어 및 처리한다.
상기 제어부(200)의 동작을 자세히 살펴보면, 먼저 상기 제어부(200)는 상기 자세 추정부(202)를 포함함으로써, 상기 가속도 센서(216)를 제어하여 자세각을 획득한 후, 상기 자세각을 통해 상기 휴대용 단말기가 지면에 대해 수평 상태인지 여부를 판단하고, 상기 수평 상태일 시, 상기 휴대용 단말기의 화면이 지면을 바라보는 상태인지 혹은 하늘을 바라보는 상태인지 여부를 판단한다. 상기 제어부(200)는 상기 자세 추정부(202)를 통해 상기 휴대용 단말기가 지면에 수평하며 화면이 하늘을 바라보는 상태일 경우, 컴퍼스 모드로 동작함을 결정하고, 상기 휴대용 단말기가 지면에 수평하며 화면이 지면을 바라보는 상태일 경우, 별자리 모드로 동작함을 결정한다. 여기서, 상기 제어부(200)는 상기 휴대용 단말기의 지면 수평 상태 및 화면의 방향에 따라 상기 컴퍼스 모드와 별자리 모드 중 어느 모드로 동작할지 여부를 판단하였으나, 상기 카메라(218)의 렌즈 방향에 따라 상기 컴퍼스 모드와 별자리 모드 중 어느 모드로 동작할지 여부를 판단할 수 도 있을 것이다. 또한, 여기서, 상기 제어부(200)는 상기 자세각을 통해 상기 휴대용 단말기가 지면에 대해 수평상태인지 여부를 판단한 결과, 상기 휴대용 단말기가 지면과 임계값 이하의 각을 이룰 경우, 상기 휴대용 단말기가 지면에 수평한 상태인 것으로 판단할 수 있다.
상기 제어부(200)는 컴퍼스 모드로 동작함이 결정될 시, 상기 자세 추정부(202)를 통해 상기 지자기센서(214)를 제어하여 상기 휴대용 단말기의 방향 정보 를 획득하고, 상기 GPS 수신기(212)를 제어하여 현재 위치 정보를 획득하여 상기 표시부(200)의 화면에 현재 위치에 대한 지도와 상기 방향 정보를 디스플레이한다. 이때, 상기 제어부(200)는 상기 위치 정보를 통해 주변의 POI 정보를 획득하여 상기 지도 위에 나타낼 수 있다. 이때, 상기 제어부(200)는 상기 AR 어플리케이션 실행으로 인해 상기 카메라(218)로부터 입력되는 영상을 화면에 계속적으로 디스플레이하고, 상기 지도와 방향 정보를 화면의 소정 위치에 디스플레이한다. 예를 들어, 상기 제어부(200)는 도 3(a)에 도시된 바와 같이, 카메라(218)로부터 입력되는 영상을 화면에 계속적으로 디스플레이하고, 상기 화면의 중앙에 휴대용 단말기의 방향을 나타내는 컴퍼스 형태의 지도를 디스플레이할 수 있다. 이때, 상기 컴퍼스 형태의 지도는 특정 지형 혹은 지물에 대한 POI 정보가 존재함을 아이콘으로 나타낼 수 있으며, 각 POI에 대한 거리를 나타내어 사용자가 현재 위치와 각 POI간의 거리상 관계를 파악할 수 있도록 한다. 또한, 상기 컴퍼스 형태의 지도는 상기 휴대용 단말기의 위치를 기준으로 하여 소정 각도를 표시함으로써, 상기 휴대용 단말기의 방향을 나타낼 수 있으며, 상기 각도는 상기 휴대용 단말기의 방향 변화에 따라 변경된다.
상기 제어부(200)는 별자리 모드로 동작함이 결정될 시, 상기 자세 추정부(202)를 통해 상기 GPS 수신기(212)를 제어하여 현재 위치 정보를 획득하고, 현재 위치를 기준으로 한 별자리 정보를 획득하여 상기 표시부(200)의 화면에 디스플레이한다. 이때, 상기 화면에 디스플레이되는 별자리 정보는 상기 휴대용 단말기의 위치 정보에 따라 실시간으로 변경된다. 상기 별자리 정보는 상기 저장부(224)를 통해 획득하거나 상기 통신 모듈(210)을 통해 외부 기기로부터 획득할 수 있다. 여기서, 상기 별자리 정보는 각 별자리의 위치, 이름, 유래 및 상세 설명 정보를 포함하는 의미이다. 예를 들어, 상기 제어부(200)는 도 3(b)에 도시된 바와 같이, 사용자가 휴대용 단말기를 지면에 수평한 상태로 하고, 화면이 지면으로 향하게 할 경우, 현재 위치를 중심으로 별자리를 디스플레이 할 수 있다.
또한, 상기 제어부(200)는 상기 움직임 감지부(204)를 포함함으로써, 상기 가속도 센서(216)를 제어하여 사용자에 의한 휴대용 단말기의 움직임을 감지하고, 상기 움직임에 따라 카메라(218)의 줌을 조절하기 위한 기능을 제어 및 처리한다. 즉, 상기 제어부(200)는 상기 움직임 감지부(204)를 통해 상기 가속도 센서(216)로부터 획득되는 휴대용 단말기의 이동 속도, 진동 등과 같은 움직임 정보를 이용하여 상기 휴대용 단말기가 전/후로 임계 거리 이상 이동되거나 바운스 혹은 스냅되는지 판단하고, 임계 거리 이상 이동되거나 바운스 혹은 스냅될 시 기 설정된 방식에 따라 상기 카메라의 줌을 인/아웃 시킨다. 즉, 상기 제어부(200)는 상기 가속도 센서(216)를 통해 상기 사용자가 휴대용 단말기를 임계 거리 이상 밀거나 당기는 동작을 수행하는지 혹은 상기 휴대용 단말기를 튕기듯이 밀거나 당기는 바운스 동작을 수행하는지 혹은 손목을 축으로 하여 상기 휴대용 단말기를 밀었다가 당기는 스냅 동작을 수행하는지 여부를 판단하고, 판단 결과에 따라 줌을 인/아웃 시킨다. 예를 들어, 상기 제어부(200)는 도 4에 도시된 바와 같이 사용자가 상기 휴대용 단말기를 임계 거리 이상 당기는 동작을 수행할 시 상기 카메라(218)의 줌을 소정 단계만큼 인 시키고, 상기 사용자가 휴대용 단말기를 임계 거리 이상 밀 경우 상기 카메라(218)의 줌을 소정 단계만큼 아웃 시킬 수 있다. 이때, 상기 카메라의 줌이 인/아웃되는 정도는 상기 휴대용 단말기가 전/후로 이동된 거리 혹은 바운스되거나 스냅된 정도 혹은 횟수에 따라 달라질 수 있으며, 이는 사용자 설정에 의해 변경될 수 있다. 여기서, 상기 사용자의 움직임에 따른 카메라의 줌 인/아웃 기능은 상기 휴대용 단말기가 지면에 수평 혹은 수직인 상태에 관계없이 수행될 수 있다. 예를 들어, 사용자가 상기 휴대용 단말기를 지면과 수직인 상태에서 자신의 방향으로 당기면 카메라의 줌을 인 혹은 아웃 시킬 수도 있고, 상기 휴대용 단말기를 지면과 수평인 상태에서 지면 방향으로 밀면, 카메라의 줌을 인 혹은 아웃 시킬 수 있을 것이다. 여기서, 상기 휴대용 단말기가 지면과 수직인 상태에서 전 혹은 후로 임계 거리 이동할 시, 상기 이동이 상기 사용자가 휴대용 단말기를 미는 동작인지 혹은 당기는 동작인지는 상기 휴대용 단말기의 화면 혹은 카메라가 바라보는 방향으로 이동하는지 혹은 반대 방향으로 이동하는지 여부를 통해 판단할 수도 있다.
상기 제어부(200)는 상기 보행자 항법 결정부(206)를 포함함으로써, 상기 가속도 센서(216)와 GSP 수신기(212)를 제어하여 상기 화면에 디스플레이된 영상에 포함된 POI까지의 이동거리 및 이동시간을 계산하고, 이를 상기 표시부(220)에 디스플레이한다. 예를 들어, 상기 제어부(200)는 도 5에 도시된 바와 같이, 화면에 디스플레이된 영상에 포함되는 건물까지의 이동시간을 나타낼 수 있다. 이때, 상기 제어부(200)는 상기 휴대용 단말기의 현재 위치에서 해당 POI까지의 직선거리가 아닌, 사용자가 실제 이동할 경로를 고려한 이동거리를 계산하고, 이에 따라 이동시간을 계산한다. 이때, 상기 이동시간은 소정 시간 동안에 계산된 상기 사용자의 이 동속도, 평균 이동속도를 이용하여 계산할 수 있다. 이때, 상기 평균 이동속도는 복수의 사용자들에 대한 평균 이동속도를 의미하고, 상기 사용자의 이동속도 및 상기 평균 이동속도는 사용자의 현재 이동속도와 상황별로 구분될 수도 있다. 즉, 상기 제어부(200)는 현재 속도가 임계값 이상이면, 차량을 이용한 주행 중으로 판단하여 상기 주행에 대응되는 사용자의 이동속도 혹은 평균 이동속도를 이용하고, 상기 현재 속도가 임계값 이하이면, 보행 중으로 판단하여 상기 보행에 대응되는 사용자의 이동속도 혹은 평균 이동속도를 이용할 수 있다. 또한, 상기 제어부(200)는 오르막길에서의 이동속도, 내리막길에서의 이동속도 및 계단에서의 이동속도 등과 같이 노면의 상황에 따라 구분된 이동속도를 이용하여 해당 POI까지의 이동시간을 계산할 수 있다. 이때, 상기 사용자 이동속도는 이전에 추정된 이동속도이거나 현재 추정되는 이동속도일 수 있으며, 상익 평균 이동속도는 상기 휴대용 단말기의 설계시에 미리 저장된 이동속도이거나 상기 통신 모듈(210)을 통해 외부 기기로부터 획득한 이동속도일 수 있다.
상기 제어부(200)는 상기 영상 인식 및 처리부(208)를 포함함으로써, AR 어플리케이션 실행 중에 사진 촬영 기능 즉, 캡쳐 이벤트가 발생될 시, 현재 화면에 POI 정보를 디스플레이 중인지 여부를 검사하고 상기 POI 정보를 디스플레이 중일 시, 상기 디스플레이된 POI 정보를 포함하는 영상을 캡처한다. 예를 들어, 도 6(a)에 도시된 바와 같이, 휴대용 단말기에서 AR 어플리케이션 실행 시, 화면에 디스플레이된 영상에 대응되는 POI 정보가 존재하여 상기 화면에 POI 정보가 디스플레이된 상태에서 사용자에 의해 사진 촬영 이벤트가 발생되면, 상기 휴대용 단말기 는 상기 화면을 캡쳐하여 도 6(b)에 도시된 바와 같이 POI 정보를 포함하는 영상을 획득할 수 있다. 이때, 상기 제어부(200)는 상기 POI 정보를 포함하는 영상을 상기 POI 정보에 대응되는 지형 혹은 지물에 관련된 이미지로 태깅하여 상기 저장부(224)에 저장함으로써, 도 6(c)에 도시된 바와 같이, 사용자가 지형 혹은 지물을 안내하는 관련 어플리케이션을 실행하여 해당 위치의 POI 정보를 획득하고자 할때, 상기 POI 정보를 포함하는 영상을 디스플레이할 수도 있다.
또한, 상기 제어부(200)는 상기 영상 인식 및 처리부(208)를 포함함으로써, AR 어플리케이션 실행 중에 사진 촬영 기능 즉, 캡쳐 이벤트가 발생될 시, 상기 카메라로부터 입력되는 영상을 캡처하고 상기 캡처된 영상에 사용자 얼굴이 존재하는지 여부를 검사한다. 상기 제어부(200)는 상기 사용자 얼굴이 존재할 시, 상기 GPS 수신기(212)를 통해 상기 캡처된 영상에 대응되는 POI 정보를 수집하고, 상기 POI 정보를 그래픽 객체 혹은 텍스트 코멘트 등으로 표현하여 상기 캡처된 영상에 합성하기 위한 기능을 제어 및 처리한다. 이때, 상기 제어부(200)는 상기 영상 인식 및 처리부(208)를 통해 상기 사용자 얼굴에서 입 혹은 치아를 인식하여 상기 POI 정보를 표현하는 그래픽 객체 혹은 텍스트 코멘트를 상기 입 혹은 치아 주변에 합성하여 사용자가 상기 POI 정보를 말하고 있는 듯한 효과를 줄 수 있다.
또한, 상기 제어부(200)는 상기 화면에 POI 정보가 디스플레이되었을 시, 상기 POI 정보와 웹 검색 엔진을 연동하기 위한 기능을 제어 및 처리한다. 즉, 상기 제어부(200)는 사용자가 특정 POI 정보를 선택하고, 웹 검색 이벤트를 발생시키면 상기 특정 POI 정보로부터 검색 키워드를 자동으로 추출하여 웹 검색을 수행하기 위한 기능을 제어 및 처리한다. 상기 제어부(200)는 상기 검색 키워드로, 상기 POI 정보에서 해당 지형 혹은 지물의 이름, 종류, 지역 명 혹은 주소 정보를 획득하여 웹 상에서 상기 획득된 정보로 검색이 이루어지도록 제어 및 처리한다. 이때, 상기 POI 정보에 지역 명이 존재하지 않는 경우, 주소 정보로부터 지역 명을 추출할 수 있으며, 위도와 경도를 이용하여 해당 위치의 행정구역 명을 획득하여 지역 명으로 이용할 수 있다.
상기 통신모듈(210)은 안테나(미도시)를 통해 입출력되는 데이터의 무선신호를 송수신 처리하는 기능을 수행한다. 특히, 상기 통신모듈(210)은 상기 제어부(200)의 제어 하에 외부 기기와의 무선신호를 송수신하여 POI 정보를 획득할 수 있다.
상기 GPS(Global Positioning System) 수신기(212)는 GPS 시스템으로부터 상기 휴대용 단말기의 위치를 나타내는 위치 정보 즉, 위치 좌표를 획득하여 상기 제어부(200)로 제공한다.
상기 지자기센서(214)는 상기 제어부(200)의 제어 하에 상기 휴대용 단말기의 방향을 측정하고, 측정된 방향 정보를 상기 제어부(200)로 제공한다.
상기 가속도 센서(216)는 상기 휴대용 단말기의 움직임에 대한 이동 방향, 이동속도, 자세각 등을 측정하여 상기 제어부(200)로 제공한다. 본 발명에서는 상기 가속도 센서(216)를 이용하여 휴대용 단말기의 움직임을 측정하였으나, 상기 휴대용 단말기의 움직임을 측정할 수 있는 다른 센서들을 이용할 수도 있다.
상기 카메라(218)는 카메라 센서를 통해 영상 촬영시에 감지되는 광신호를 전기적 신호로 변환하여 상기 카메라 센서로부터 촬영되는 아날로그 영상신호를 디지털 데이터로 변환하여 상기 영상 인식 및 처리부(208)로 제공한다.
상기 표시부(220)는 상기 휴대용 단말기의 상태 정보, 숫자와 문자들, 다량의 동영상 및 정지영상 등을 디스플레이한다. 특히, 상기 표시부(220)는 상기 제어부(200)의 제어에 따라 상기도 3(a)에 도시된 바와 같이, 화면의 소정 위치에 휴대용 단말기의 방향과 주변의 POI 정보를 나타내는 컴퍼스 형태의 지도를 디스플레이하고, 도 3(b)에 도시된 바와 같이, 현재 위치에 대응되는 별자리 정보를 디스플레이할 수 있다. 또한, 상기 표시부(220)는 상기 제어부(200)의 제어에 따라 도 5에 도시된 바와 같이 특정 POI까지의 이동거리 및 이동시간을 디스플레이할 수 있다.
상기 입력부(222)는 다수의 기능키와 숫자 및 문자 키를 구비하며, 사용자가 누르는 키 혹은 사용자의 터치에 대응하는 입력 데이터를 상기 제어부(200)로 제공한다.
상기 저장부(224)는 상기 휴대용 단말기의 전반적인 동작을 위한 각종 프로그램 및 데이터를 저장하며, 본 발명에 따라 POI DB(DataBase)를 포함하여 특정 지형 및 지물들에 대한 POI 정보, 예를 들어, 이름, 위치(예: 위도, 경도), 종류(category), 지역 명, 주소, 전화번호, 상세 설명, 관련 이미지 정보를 저장한다. 이때, 상기 POI DB는 미리 저장될 수도 있으며, 네트워크 혹은 외부 기기에 의해 갱신될 수 있다. 또한, 상기 저장부(224)는 본 발명에 따라 별자리 DB를 포함하여 각 별자리의 위치, 이름, 유래 및 상세 설명 정보를 저장한다.
도 7a와 도 7b는 본 발명의 실시 예에 따른 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 절차를 도시하고 있다.
상기 도 7a와 도 7b를 참조하면, 상기 휴대용 단말기는 701단계에서 AR 어플리케이션이 실행될 시, 703단계로 진행하여 카메라를 구동시켜 프리뷰를 진행하고, 705단계에서 가속도 센서 및 지자기센서를 구동시킨다. 여기서, 상기 가속도 센서 및 지자기센서를 구동시키는 것은 상기 단말의 수평 상태와 단말의 방향 및 이동 방향 등을 판단하기 위함이다.
이후, 상기 휴대용 단말기는 707단계에서 상기 휴대용 단말기가 지면과 수평상태인지 여부를 판단한다. 상기 휴대용 단말기는 상기 가속도 센서를 통해 자세각을 획득하여 상기 휴대용 단말기가 지면에 대해 수평 상태인지 여부를 판단할 수 있으며, 이때 상기 휴대용 단말기가 지면과 임계값 이하의 각을 이룰 경우, 지면에 수평한 상태인 것으로 판단할 수 있다. 상기 휴대용 단말기는 자신이 지면과 수평한 상태일 시 하기 709단계로 진행하고, 상기 지면과 수평한 상태가 아닐 시 하기 719단계로 진행한다.
상기 휴대용 단말기는 709단계에서 화면의 위치 즉, 상기 화면이 지면을 바라보는 상태인지 혹은 하늘을 바라보는 상태인지 여부를 판단한다. 만일, 상기 휴대용 단말기가 지면에 수평하며 화면이 하늘을 바라보는 상태일 경우, 상기 휴대용 단말기는 711단계에서 컴퍼스 모드로 동작함을 결정한 후, 713단계로 진행하여 현재 위치 정보를 이용하여 화면의 소정 위치에 휴대용 단말기의 방향과 주변의 지형 및 지물을 안내하는 정보 즉, POI 정보를 나타내는 컴퍼스 형태의 지도를 디스플레 이한다. 이때, 상기 휴대용 단말기의 방향은 상기 지자기센서를 통해 판단할 수 있으며, 상기 컴퍼스 형태의 지도에 소정 각도를 표시하여 나타낼 수 있다. 여기서, 상기 휴대용 단말기는 상기 프리뷰 화면을 유지한 상태에서 화면의 소정 위치에 상기 지도를 디스플레이할 수 있다. 예를 들어, 상기 도 3(a)에 도시된 바와 같이, 카메라(218)로부터 입력되는 영상을 화면에 계속적으로 디스플레이하면서, 상기 화면의 중앙에 휴대용 단말기의 방향과 주변의 POI 정보를 나타내는 컴퍼스 형태의 지도를 디스플레이할 수 있다. 이후, 상기 휴대용 단말기는 상기 707단계로 진행하여 이하 단계를 재수행한다.
반면, 상기 휴대용 단말기가 지면에 수평하며 화면이 지면을 바라보는 상태일 경우, 상기 휴대용 단말기는 715단계에서 별자리 모드로 동작함을 결정한 후, 717단계에서 현재 위치 정보를 이용하여 화면에 별자리 정보를 디스플레이한다. 이때, 상기 화면에 디스플레이되는 별자리 정보는 상기 휴대용 단말기의 위치 정보에 따라 실시간으로 변경되며, 상기 별자리 정보는 각 별자리의 위치, 이름, 유래 및 상세 설명 정보를 포함하는 의미이다. 예를 들어, 상기 도 3(b)에 도시된 바와 같이, 사용자가 휴대용 단말기를 지면에 수평한 상태로 하고, 화면이 지면으로 향하게 할 경우, 상기 휴대용 단말기는 현재 위치를 중심으로 별자리를 디스플레이 할 수 있다. 이후, 상기 휴대용 단말기는 상기 707단계로 진행하여 이하 단계를 재수행한다.
한편, 상기 707단계의 검사 결과 상기 휴대용 단말기가 지면과 수평한 상태가 아닐 경우, 상기 휴대용 단말기는 719단계로 진행하여 현재 위치정보에 따른 POI 정보를 획득하여 상기 프리뷰 화면에 디스플레이한다.
이후, 상기 휴대용 단말기는 721단계로 진행하여 상기 휴대용 단말기가 전/후 방향으로 전/후로 임계 거리 이상 이동되거나 바운스 혹은 스냅되는지 판단한다. 즉, 상기 휴대용 단말기는 상기 가속도 센서(216)를 통해 상기 사용자가 휴대용 단말기를 임계 거리 이상 밀거나 당기는 동작을 수행하는지 혹은 상기 휴대용 단말기를 튕기듯이 밀거나 당기는 바운스 동작을 수행하는지 혹은 손목을 축으로 하여 상기 휴대용 단말기를 밀었다가 당기는 스냅 동작을 수행하는지 여부를 판단한다.
만일, 상기 휴대용 단말기가 전/후로 임계 거리 이상 이동되거나 바운스 혹은 스냅될 시, 상기 휴대용 단말기는 723단계로 진행하여 상기 이동 량, 바운스 량, 혹은 스냅 강도에 따라 기 설정된 단계만큼 상기 카메라(218)의 줌을 인/아웃 시킨다. 예를 들어, 상기 휴대용 단말기는 상기 도 4에 도시된 바와 같이, 사용자가 상기 휴대용 단말기를 임계 거리 이상 당길 경우, 상기 카메라(218)의 줌을 소정 단계만큼 인 시키고, 상기 사용자가 휴대용 단말기를 임계 거리 이상 밀 경우, 상기 카메라(218)의 줌을 소정 단계만큼 아웃 시킬 수 있다. 이때, 상기 카메라의 줌이 인/아웃되는 정도는 상기 휴대용 단말기가 전/후로 이동되는 량, 바운스 량 혹은 스냅의 강도에 따라 달라질 수 있으며, 이동된 횟수, 바운스 횟수, 스냅된 횟수에 따라 달라질 수도 있다. 이때, 상기 휴대용 단말기는 상기 휴대용 단말기가 최대 임계 거리 이상 이동할 경우에는, 이를 사용자의 보행 혹은 주행으로 인한 이동으로 판단하고 상기 카메라(218)의 줌을 조절하지 않는다. 이후, 상기 휴대용 단 말기는 상기 707단계로 되돌아가 이하 단계를 재수행한다.
반면, 상기 휴대용 단말기가 전/후로 임계 거리 이상 이동되지 않고 바운스되거나 스냅되지도 않을 시, 상기 휴대용 단말기는 725단계로 진행하여 화면에 디스플레이된 POI 중 하나가 선택되는지 검사한다. 상기 휴대용 단말기는 하나의 POI가 선택될 시 하기 727단계로 진행하고, POI가 선택되지 않을 시 하기 737단계로 진행한다.
상기 하나의 POI가 선택될 시, 상기 휴대용 단말기는 727단계에서 상기 선택된 POI에 관련된 상세 정보들을 디스플레이한다. 이때, 상기 휴대용 단말기는 상기 POI까지의 이동거리 및 이동시간을 계산하여 디스플레이할 수 있다. 예를 들어, 상기 휴대용 단말기는 도 5에 도시된 바와 같이, 화면에 디스플레이된 영상에 포함되는 특정 POI까지의 이동시간을 나타낼 수 있다. 여기서, 상기 이동시간은 현재 위치에서 해당 POI까지의 직선거리가 아닌, 사용자가 실제 이동할 경로를 고려하여 계산할 수 있으며, 상기 이동시간은 소정 시간 동안에 계산된 상기 사용자의 이동속도 혹은 평균 이동속도를 이용하여 계산할 수 있다.
이후, 상기 휴대용 단말기는 729단계에서 웹 검색 기능이 선택되는지 여부를 판단한다. 상기 휴대용 단말기는 상기 웹 검색 기능이 선택되지 않을 시 하기 737단계로 진행하고, 상기 웹 검색 기능이 선택될 시 731단계에서 상기 POI 정보를 이용하여 웹 검색을 수행한다. 즉, 상기 휴대용 단말기는 상기 선택된 POI 정보로부터 검색 키워드를 자동으로 추출하여 추출된 검색 키워드로 웹 검색을 자동 수행한다. 여기서, 상기 검색 키워드는 상기 POI 정보에 포함된 해당 지형 혹은 지물의 이름, 종류, 지역 명 혹은 주소 정보 중 어느 하나일 수 있다.
이후, 상기 휴대용 단말기는 733단계에서 웹 검색 결과를 디스플레이하고, 735단계로 진행하여 AR 어플리케이션을 종료하기 위한 이벤트가 발생되거나 이전 상태로 되돌아가기 위한 이벤트가 발생되는지 검사한다. 상기 휴대용 단말기는 AR 어플리케이션을 종료하기 위한 이벤트가 발생될 시 본 발명에 따른 알고리즘을 종료하고, 상기 이전 상태로 되돌아가기 위한 이벤트가 발생될 시, 상기 719단계로 되돌아가 이하 단계를 재수행한다.
한편, 상기 휴대용 단말기는 737단계에서 캡쳐 이벤트가 발생되는지 여부를 검사한다. 상기 휴대용 단말기는 캡쳐 이벤트가 발생되지 않을 시 상기 707단계로 되돌아가 이하 단계를 재수행하고, 상기 캡쳐 이벤트가 발생될시 739단계로 진행하여 카메라로부터 입력되는 영상을 캡쳐한다.
이후, 상기 휴대용 단말기는 741단계에서 상기 캡쳐된 영상에 사용자 얼굴이 존재하는지 여부를 검사한다. 상기 캡쳐된 영상에 사용자 얼굴이 존재할 시, 상기 휴대용 단말기는 743단계로 진행하여 상기 사용자 얼굴 주변에 POI 정보를 포함하는 그래픽 객체를 합성하여 디스플레이한다. 즉, 상기 휴대용 단말기는 캡쳐된 영상에 사용자 얼굴이 존재할 시, 상기 719단계에서 수집된 POI 정보를 그래픽 객체 혹은 텍스트 코멘트 등으로 표현하여 상기 캡처된 영상에 합성한다. 이때, 상기 휴대용 단말기는 상기 사용자 얼굴에서 입 혹은 치아를 인식하여 상기 POI 정보를 표현하는 그래픽 객체 혹은 텍스트 코멘트를 상기 입 혹은 치아 주변에 합성하여 사용자가 상기 POI 정보를 말하고 있는 듯한 효과를 줄 수 있다. 이후, 상기 휴대용 단말기는 하기 747단계로 진행한다.
상기 캡쳐된 영상에 사용자 얼굴이 존재하지 않을 시, 상기 휴대용 단말기는 745단계로 진행하여 상기 캡쳐된 영상에 POI 정보를 합성하여 디스플레이한다. 여기서, 상기 휴대용 단말기는 상기 캡쳐된 영상에 POI 정보를 합성하여 디스플레이할 수도 있으나, 상기 영상 캡쳐 이벤트가 발생될 시에 POI 정보가 디스플레이되었는지 여부를 검사하여 디스플레이된 POI 정보를 영상과 함께 캡쳐할 수도 있다. 예를 들어, 상기 휴대용 단말기는 상기 도 6(b)에 도시된 바와 같이, POI 정보를 포함하는 영상을 획득하여 디스플레이한다. 이후, 상기 휴대용 단말기는 하기 747단계로 진행한다.
상기 휴대용 단말기는 747단계에서 상기 캡쳐로 획득한 영상을 저장하기 위한 이벤트가 발생되는지 여부를 검사한다. 상기 휴대용 단말기는 상기 저장 이벤트가 발생되지 않을 시 상기 707단계로 되돌아가 이하 단계를 재수행하고, 상기 저장 이벤트가 발생될 시 749단계로 진행하여 획득된 영상을 저장하고, 상기 709단계로 되돌아가 이하 단계를 재수행한다. 여기서, 상기 휴대용 단말기는 상기 POI 정보를 포함하는 영상을 상기 POI 정보에 대응되는 지형 혹은 지물에 관련된 이미지로 태깅하여 저장함으로써, 도 6(c)에 도시된 바와 같이, 사용자가 지형 혹은 지물을 안내하는 관련 어플리케이션을 실행하여 해당 위치의 POI 정보를 획득하고자 할때, 상기 POI 정보를 포함하는 영상을 디스플레이할 수 있다.
한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능하다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
도 1은 종래 기술에 따른 휴대용 단말기에서 AR 서비스를 제공하는 화면 구성을 도시하는 도면,
도 2는 본 발명에 따라 AR을 지원하는 휴대용 단말기의 블록 구성을 도시하는 도면,
도 3은 본 발명의 실시 예에 따른 휴대용 단말기에서 자세각에 따라 지도 정보 혹은 별자리 정보를 제공하는 화면 구성을 도시하는 도면,
도 4는 본 발명의 실시 예에 따른 휴대용 단말기에서 움직임에 따라 카메라의 줌을 조절하는 방식을 도시하는 도면,
도 5는 본 발명의 실시 예에 따른 휴대용 단말기에서 특정 지형 혹은 지물까지의 이동 거리 및 시간 정보를 제공하는 화면 구성을 도시하는 도면,
도 6은 본 발명의 실시 예에 따른 휴대용 단말기에서 POI 정보를 포함하는 영상을 획득하여 해당 POI에 태깅하는 화면 구성을 도시하는 도면,
도 7a와 도 7b는 본 발명의 실시 예에 따른 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 절차를 도시하는 도면.
Claims (28)
- 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법에 있어서,카메라를 구동하여 프리뷰 영상을 표시하는 과정과,상기 휴대용 단말기의 움직임을 측정하는 과정과,상기 휴대용 단말기의 움직임에 대응하여 상기 휴대용 단말기가 전방 또는 후방으로 이동한 거리를 식별하는 과정과,상기 이동한 거리가 제1 임계 거리 이상인 경우, 상기 이동한 거리에 대응하여 상기 카메라의 줌(zoom)을 조절하는 과정과,상기 이동한 거리가 제2 임계 거리 이상인 경우, 상기 카메라의 줌 조절을 제한하는 과정을 포함하며,상기 제1 임계 거리는, 상기 제2 임계 거리보다 작은 값으로 설정되는 방법.
- 제 1항에 있어서,상기 휴대용 단말기의 움직임에 대응하여 상기 휴대용 단말기가 바운스되는지 여부를 판단하는 과정과,상기 휴대용 단말기가 후방으로 바운스된 경우, 바운스 량 혹은 바운스 횟수에 기반하여 상기 카메라를 기 설정된 제2 단계만큼 줌인하는 과정과,상기 휴대용 단말기가 전방으로 바운스된 경우, 바운스 량 혹은 바운스 횟수에 기반하여 상기 카메라를 기 설정된 제2 단계만큼 줌아웃하는 과정을 더 포함하는 방법.
- 제 1항에 있어서,상기 휴대용 단말기의 움직임에 대응하여 상기 휴대용 단말기가 스냅되는지 여부를 판단하는 과정과,상기 휴대용 단말기가 후방으로 스냅된 경우, 스냅의 강도 혹은 횟수에 기반하여 상기 카메라를 기 설정된 제3 단계만큼 줌인하는 과정과,상기 휴대용 단말기가 전방으로 스냅된 경우, 스냅의 강도 혹은 횟수에 기반하여 상기 카메라를 기 설정된 제3 단계만큼 줌아웃하는 과정을 더 포함하는 방법.
- 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법에 있어서,카메라를 구동하여 프리뷰 영상을 표시하는 과정과,현재 위치 정보를 획득하여 프리뷰 영상에 POI 정보를 표시하는 과정과,영상이 캡쳐될 시, 캡쳐된 영상에 상기 POI 정보를 나타내는 그래픽 객체를 합성하는 과정과,합성된 영상을 상기 POI 정보에 해당하는 지형 혹은 지물의 이미지로 태깅하는 과정과,해당 위치의 POI 정보를 제공하기 위해 관련 어플리케이션을 구동하는 과정과,상기 POI 정보를 포함하는 합성된 영상을 상기 어플리케이션을 통해 표시하는 과정을 포함하는 방법.
- 제 4항에 있어서,상기 그래픽 객체를 합성하는 과정은,상기 캡쳐된 영상에 사용자 얼굴이 존재하는지 여부를 검사하는 과정과,상기 사용자 얼굴이 존재할 시, 상기 POI 정보를 나타내는 그래픽 객체를 사용자 얼굴 주변에 합성하는 과정을 포함하는 방법.
- 제 4항에 있어서,상기 POI 정보가 표시된 상태에서 웹 검색 기능이 수행될 시, 상기 POI 정보로부터 적어도 하나의 검색 키워드를 추출하는 과정과,상기 추출된 적어도 하나의 키워드를 이용하여 웹 검색을 수행하는 과정을 더 포함하는 방법.
- 제 4항에 있어서,상기 현재 위치 정보를 획득하여 프리뷰 영상에 POI 정보를 표시하는 과정은,상기 프리뷰 영상에 표시된 POI 정보에 대응되는 지형 혹은 지물에 대해 실제 이동경로를 고려한 이동거리와 이동시간 중 적어도 하나를 계산하여 표시하는 과정을 포함하며,상기 이동 시간은, 소정 시간 동안에 계산된 상기 휴대용 단말기의 사용자 이동 속도 또는 복수의 사용자들에 대한 평균 이동 속도에 기반하여 계산되는 방법.
- 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 장치에 있어서,제어부와,영상을 입력받도록 구성되고, 상기 제어부와 기능적으로 연결된 카메라와,상기 카메라로부터 입력된 영상을 이용하여 프리뷰 영상을 표시하도록 구성되고, 상기 제어부와 기능적으로 연결된 표시부와,상기 휴대용 단말기의 움직임을 측정하도록 구성되고, 상기 제어부와 기능적으로 연결된 가속도 센서를 포함하며,상기 제어부는,상기 휴대용 단말기의 움직임에 대응하여 상기 휴대용 단말기가 전방 또는 후방으로 이동한 거리를 식별하도록 구성되고, 상기 이동한 거리가 제1 임계 거리 이상인 경우, 상기 이동한 거리에 대응하여 상기 카메라의 줌(zoom)을 조절하도록 구성되고, 상기 이동한 거리가 제2 임계거리 이상인 경우, 상기 카메라의 줌 조절을 제한하도록 구성되며,상기 제1 임계 거리는, 상기 제2 임계 거리보다 작은 값으로 설정되는 장치.
- 제 8항에 있어서,상기 제어부는,상기 휴대용 단말기의 움직임에 대응하여 상기 휴대용 단말기가 바운스되는지 여부를 판단하도록 구성되고, 상기 휴대용 단말기가 후방으로 바운스된 경우, 바운스 량 혹은 바운스 횟수에 기반하여 기 설정된 제2 단계만큼 상기 카메라를 줌인하도록 구성되고, 상기 휴대용 단말기가 전방으로 바운스된 경우, 바운스 량 혹은 바운스 횟수에 기반하여 기 설정된 제2 단계만큼 상기 카메라를 줌아웃하도록 구성되는 장치.
- 제 8항에 있어서,상기 제어부는,상기 휴대용 단말기의 움직임에 대응하여 상기 휴대용 단말기가 스냅되는지 여부를 판단하도록 구성되고, 상기 휴대용 단말기가 후방으로 스냅된 경우, 스냅의 강도 혹은 횟수에 기반하여 기 설정된 제3 단계만큼 상기 카메라를 줌인하도록 구성되고, 상기 휴대용 단말기가 전방으로 스냅된 경우, 스냅의 강도 혹은 횟수에 기반하여 기 설정된 제3 단계만큼 상기 카메라를 줌아웃하도록 구성되며, 상기 스냅은 상기 휴대용 단말기가 사용자의 손목을 축으로 하여 밀렸다가 당겨지는 동작인 장치.
- 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 장치에 있어서,제어부와,영상을 입력받도록 구성되고, 상기 제어부와 기능적으로 연결된 카메라와,상기 카메라로부터 입력된 영상을 디스플레이하여 프리뷰 영상을 표시하도록 구성되고, 상기 제어부와 기능적으로 연결된 표시부와,현재 위치 정보를 획득하도록 구성되고, 상기 제어부와 기능적으로 연결된 GPS 수신기를 포함하며,상기 제어부는,상기 현재 위치 정보를 이용하여 POI 정보를 획득하도록 구성되고, 영상이 캡쳐될 시, 캡쳐된 영상에 상기 POI 정보를 나타내는 그래픽 객체를 합성하도록 구성되고, 합성된 영상을 상기 POI 정보에 해당하는 지형 혹은 지물의 이미지로 태깅하도록 구성되고, 해당 위치의 POI 정보를 제공하기 위해 관련 어플리케이션을 구동하도록 구성되고, 상기 POI 정보를 포함하는 합성된 영상을 상기 어플리케이션을 이용하여 상기 표시부를 통해 표시하도록 구성되는 장치.
- 제 11항에 있어서,상기 제어부는,상기 캡쳐된 영상에 사용자 얼굴이 존재하는지 여부를 검사하도록 구성되고, 상기 사용자 얼굴이 존재할 시, 상기 POI 정보를 나타내는 그래픽 객체를 사용자 얼굴 주변에 합성하도록 구성되는 장치.
- 제 11항에 있어서,상기 제어부는,상기 POI 정보를 화면에 표시된 상태에서 웹 검색 기능이 수행될 시, 상기 POI 정보로부터 검색 키워드를 추출하도록 구성되고, 상기 추출된 적어도 하나의 키워드를 이용하여 자동으로 웹 검색을 수행하기 위한 기능을 제어하도록 구성되는 장치.
- 제 11항에 있어서,상기 제어부는,상기 프리뷰 영상에 포함된 지형 혹은 지물에 대해 실제 이동경로를 고려한 이동거리와 이동시간 중 적어도 하나를 계산하여 표시하기 위한 기능을 제어하도록 구성되고, 소정 시간 동안에 계산된 상기 휴대용 단말기의 사용자 이동속도 혹은 복수의 사용자들에 대한 평균 이동속도를 이용하여 상기 이동시간을 계산하도록 구성되는 장치.
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090090427A KR101648339B1 (ko) | 2009-09-24 | 2009-09-24 | 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치 |
EP19206727.0A EP3637050A1 (en) | 2009-09-24 | 2010-09-21 | Method and apparatus for providing service using a sensor and image recognition in a portable terminal |
EP10177759.7A EP2302322B1 (en) | 2009-09-24 | 2010-09-21 | Method and apparatus for providing location-based services using a sensor and image recognition in a portable terminal |
US12/924,253 US9410810B2 (en) | 2009-09-24 | 2010-09-23 | Method and apparatus for providing service using a sensor and image recognition in a portable terminal |
US15/231,632 US9915544B2 (en) | 2009-09-24 | 2016-08-08 | Method and apparatus for providing service using a sensor and image recognition in a portable terminal |
US15/888,551 US10190885B2 (en) | 2009-09-24 | 2018-02-05 | Method and apparatus for providing service using a sensor and image recognition in a portable terminal |
US16/259,158 US10578452B2 (en) | 2009-09-24 | 2019-01-28 | Method and apparatus for providing service using a sensor and image recognition in a portable terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090090427A KR101648339B1 (ko) | 2009-09-24 | 2009-09-24 | 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110032765A KR20110032765A (ko) | 2011-03-30 |
KR101648339B1 true KR101648339B1 (ko) | 2016-08-17 |
Family
ID=43222011
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090090427A KR101648339B1 (ko) | 2009-09-24 | 2009-09-24 | 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치 |
Country Status (3)
Country | Link |
---|---|
US (4) | US9410810B2 (ko) |
EP (2) | EP2302322B1 (ko) |
KR (1) | KR101648339B1 (ko) |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9420251B2 (en) * | 2010-02-08 | 2016-08-16 | Nikon Corporation | Imaging device and information acquisition system in which an acquired image and associated information are held on a display |
KR101330805B1 (ko) * | 2010-08-18 | 2013-11-18 | 주식회사 팬택 | 증강 현실 제공 장치 및 방법 |
KR20120085474A (ko) * | 2011-01-24 | 2012-08-01 | 삼성전자주식회사 | 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 저장매체 |
JP2012155655A (ja) * | 2011-01-28 | 2012-08-16 | Sony Corp | 情報処理装置、報知方法及びプログラム |
JP5765019B2 (ja) | 2011-03-31 | 2015-08-19 | ソニー株式会社 | 表示制御装置、表示制御方法、およびプログラム |
US10353566B2 (en) * | 2011-09-09 | 2019-07-16 | Microsoft Technology Licensing, Llc | Semantic zoom animations |
US9639857B2 (en) * | 2011-09-30 | 2017-05-02 | Nokia Technologies Oy | Method and apparatus for associating commenting information with one or more objects |
US9230367B2 (en) * | 2011-12-13 | 2016-01-05 | Here Global B.V. | Augmented reality personalization |
US8930141B2 (en) * | 2011-12-30 | 2015-01-06 | Nokia Corporation | Apparatus, method and computer program for displaying points of interest |
CN103197980B (zh) * | 2012-01-10 | 2016-03-30 | 华为终端有限公司 | 一种呈现增强现实技术内容的方法、装置及系统 |
JP5573859B2 (ja) * | 2012-02-09 | 2014-08-20 | コニカミノルタ株式会社 | エアタグ情報登録装置、エアタグ情報登録システムおよびプログラム |
CN103295023A (zh) * | 2012-02-24 | 2013-09-11 | 联想(北京)有限公司 | 一种增强现实信息的显示方法及装置 |
JP5891843B2 (ja) * | 2012-02-24 | 2016-03-23 | ソニー株式会社 | クライアント端末、サーバ、およびプログラム |
US9325797B2 (en) * | 2012-02-29 | 2016-04-26 | Google Inc. | System and method for requesting an updated user location |
FR2987921A1 (fr) * | 2012-03-07 | 2013-09-13 | Alcatel Lucent | Procede de communication et d'informations en realite augmentee |
US9077884B2 (en) * | 2012-03-21 | 2015-07-07 | Htc Corporation | Electronic devices with motion response and related methods |
ITPI20120043A1 (it) * | 2012-04-12 | 2013-10-13 | Luciano Marras | Sistema wireless per la fruizione interattiva di contenuti in realtà aumentata in percorsi di visita realizzati tramite supporti informatici mobili |
KR101356192B1 (ko) * | 2012-04-26 | 2014-01-24 | 서울시립대학교 산학협력단 | 영상매칭 기반의 스마트폰의 위치자세 결정 방법 및 시스템 |
KR101879857B1 (ko) * | 2012-05-04 | 2018-07-18 | 주식회사 케이티 | 가상 태깅 동작을 이용한 서비스 제공 방법 및 시스템 |
US9201974B2 (en) * | 2012-08-31 | 2015-12-01 | Nokia Technologies Oy | Method and apparatus for incorporating media elements from content items in location-based viewing |
KR101427715B1 (ko) * | 2012-12-31 | 2014-08-07 | 아주대학교산학협력단 | 큐알 코드 인식 장치 및 방법 |
CN103105993B (zh) * | 2013-01-25 | 2015-05-20 | 腾讯科技(深圳)有限公司 | 基于增强现实技术实现互动的方法和系统 |
CN104008744B (zh) * | 2013-02-25 | 2016-08-17 | 联想(北京)有限公司 | 显示方法和电子设备 |
US9596404B2 (en) * | 2013-10-23 | 2017-03-14 | Nokia Technologies Oy | Method and apparatus for generating a media capture request using camera pose information |
US9693186B1 (en) * | 2014-04-09 | 2017-06-27 | Google Inc. | Storing interactions based on location |
US9830561B2 (en) | 2014-04-30 | 2017-11-28 | Amadeus S.A.S. | Visual booking system |
CN104596523B (zh) | 2014-06-05 | 2019-05-07 | 腾讯科技(深圳)有限公司 | 一种街景目的地引导方法和设备 |
US9699610B1 (en) | 2014-12-26 | 2017-07-04 | Groupon, Inc. | Location based discovery of real-time merchant device activity |
US10080104B2 (en) | 2015-07-17 | 2018-09-18 | International Business Machines Corporation | Location based services using location and motion information |
CN105657294A (zh) * | 2016-03-09 | 2016-06-08 | 北京奇虎科技有限公司 | 在移动终端上呈现虚拟特效的方法及装置 |
KR101806957B1 (ko) * | 2016-06-02 | 2017-12-11 | 네이버 주식회사 | 관심 지점의 자동 업데이트를 위한 방법 및 시스템 |
CN106101574B (zh) * | 2016-06-28 | 2019-04-23 | Oppo广东移动通信有限公司 | 一种图像增强现实的控制方法、装置和移动终端 |
US10026023B2 (en) * | 2016-08-11 | 2018-07-17 | International Business Machines Corporation | Sentiment based social media comment overlay on image posts |
US10373358B2 (en) * | 2016-11-09 | 2019-08-06 | Sony Corporation | Edge user interface for augmenting camera viewfinder with information |
EP3322149B1 (en) * | 2016-11-10 | 2023-09-13 | Tata Consultancy Services Limited | Customized map generation with real time messages and locations from concurrent users |
CN106773051B (zh) * | 2016-12-28 | 2020-05-15 | 北京中投视讯文化传媒股份有限公司 | 展示ar标识物虚拟营养信息的增强现实装置及其方法 |
CN107843253B (zh) * | 2017-10-30 | 2021-06-01 | Oppo广东移动通信有限公司 | 导航控制方法、移动终端以及计算机可读存储介质 |
US11194464B1 (en) | 2017-11-30 | 2021-12-07 | Amazon Technologies, Inc. | Display control using objects |
US10338768B1 (en) * | 2017-12-10 | 2019-07-02 | International Business Machines Corporation | Graphical user interface for finding and depicting individuals |
US10521961B2 (en) | 2017-12-10 | 2019-12-31 | International Business Machines Corporation | Establishing a region of interest for a graphical user interface for finding and depicting individuals |
WO2019164514A1 (en) * | 2018-02-23 | 2019-08-29 | Google Llc | Transitioning between map view and augmented reality view |
KR102664710B1 (ko) | 2018-08-08 | 2024-05-09 | 삼성전자주식회사 | 외부 객체의 위치의 변화에 따라 외부 객체에 대응하는 아바타를 표시하기 위한 전자 장치 |
CN109725717A (zh) * | 2018-11-30 | 2019-05-07 | 成都理想境界科技有限公司 | 应用于ar设备的图像处理方法及ar设备 |
KR102543695B1 (ko) | 2019-01-18 | 2023-06-16 | 삼성전자주식회사 | 영상 처리 방법 및 이를 지원하는 전자 장치 |
KR102627612B1 (ko) * | 2019-02-19 | 2024-01-22 | 삼성전자주식회사 | 증강현실을 이용한 주변 정보 표시 방법 및 그 전자 장치 |
US11089439B2 (en) * | 2019-07-02 | 2021-08-10 | Charles Hohman | Systems and methods for real-world networking using augmented reality interface |
CN110248165B (zh) * | 2019-07-02 | 2021-04-06 | 高新兴科技集团股份有限公司 | 标签显示方法、装置、设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004191642A (ja) * | 2002-12-11 | 2004-07-08 | Fuji Photo Film Co Ltd | 画像表示装置 |
Family Cites Families (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS618756A (ja) | 1984-06-20 | 1986-01-16 | Sony Corp | 磁気記録再生装置 |
JP3275058B2 (ja) * | 1992-07-10 | 2002-04-15 | 三菱電機株式会社 | ビデオカメラ |
DE19852660C2 (de) * | 1998-11-16 | 2001-03-08 | Bosch Gmbh Robert | Vorrichtung zur Eingabe von Fahrzielen in eine Navigationsvorrichtung |
EP1205763A1 (en) * | 2000-11-09 | 2002-05-15 | Texas Instruments Incorporated | Wireless location |
JP3729161B2 (ja) * | 2001-08-07 | 2005-12-21 | カシオ計算機株式会社 | 目標位置探索装置、目標位置探索方法及びプログラム |
AU2003223090A1 (en) * | 2002-04-30 | 2003-11-17 | Telmap Ltd. | Template-based map distribution system |
US6801855B1 (en) * | 2002-06-28 | 2004-10-05 | Garmin Ltd. | Systems and methods with integrated GPS and dead reckoning capabilities |
JP4113387B2 (ja) * | 2002-07-24 | 2008-07-09 | シャープ株式会社 | 携帯端末装置並びに情報読取プログラム及びそのプログラムを記録した記録媒体 |
US6836723B2 (en) * | 2002-11-29 | 2004-12-28 | Alpine Electronics, Inc | Navigation method and system |
US6975959B2 (en) * | 2002-12-03 | 2005-12-13 | Robert Bosch Gmbh | Orientation and navigation for a mobile device using inertial sensors |
US7411493B2 (en) * | 2003-03-01 | 2008-08-12 | User-Centric Ip, L.P. | User-centric event reporting |
US7248159B2 (en) * | 2003-03-01 | 2007-07-24 | User-Centric Ip, Lp | User-centric event reporting |
JP4144555B2 (ja) * | 2003-06-09 | 2008-09-03 | カシオ計算機株式会社 | 電子機器、表示制御方法及びプログラム |
JP4447865B2 (ja) * | 2003-08-01 | 2010-04-07 | ソニー株式会社 | 地図表示システム、地図データ加工装置、地図表示装置及び地図表示方法 |
KR100651508B1 (ko) * | 2004-01-30 | 2006-11-29 | 삼성전자주식회사 | 증강현실을 이용한 지역 정보 제공 방법 및 이를 위한지역 정보 서비스 시스템 |
KR100591275B1 (ko) * | 2004-03-11 | 2006-06-19 | 주식회사 파인디지털 | Poi 코드번호를 이용한 항법장치 운용 시스템과 방법 |
US7365735B2 (en) * | 2004-03-23 | 2008-04-29 | Fujitsu Limited | Translation controlled cursor |
EP1769635A2 (en) * | 2004-06-01 | 2007-04-04 | L-3 Communications Corporation | Modular immersive surveillance processing system and method. |
US7460953B2 (en) * | 2004-06-30 | 2008-12-02 | Navteq North America, Llc | Method of operating a navigation system using images |
US20060104483A1 (en) * | 2004-11-12 | 2006-05-18 | Eastman Kodak Company | Wireless digital image capture device with biometric readers |
KR100678110B1 (ko) * | 2004-12-22 | 2007-02-02 | 삼성전자주식회사 | 휴대용 단말기의 움직임을 이용한 촬영방법 |
WO2006087709A1 (en) * | 2005-02-17 | 2006-08-24 | Lumus Ltd. | Personal navigation system |
US8040361B2 (en) * | 2005-04-11 | 2011-10-18 | Systems Technology, Inc. | Systems and methods for combining virtual and real-time physical environments |
US7728869B2 (en) * | 2005-06-14 | 2010-06-01 | Lg Electronics Inc. | Matching camera-photographed image with map data in portable terminal and travel route guidance method |
US7746343B1 (en) * | 2005-06-27 | 2010-06-29 | Google Inc. | Streaming and interactive visualization of filled polygon data in a geographic information system |
US20070120844A1 (en) * | 2005-11-28 | 2007-05-31 | Baumer Optronic Gmbh | Method and apparatus for the graphical operation of real-time image processing systems |
KR100667853B1 (ko) * | 2006-01-25 | 2007-01-11 | 삼성전자주식회사 | 휴대용 기기의 화면 스크롤 장치 및 방법과 그 방법을수행하는 프로그램이 기록된 기록 매체 |
US7516010B1 (en) * | 2006-01-27 | 2009-04-07 | Navteg North America, Llc | Method of operating a navigation system to provide parking availability information |
US20070097151A1 (en) * | 2006-04-07 | 2007-05-03 | Outland Research, Llc | Behind-screen zoom for handheld computing devices |
US20070268246A1 (en) * | 2006-05-17 | 2007-11-22 | Edward Craig Hyatt | Electronic equipment with screen pan and zoom functions using motion |
US8989778B2 (en) * | 2006-06-01 | 2015-03-24 | Green Dot Corporation | Secure and private location sharing for location-aware mobile communication devices |
US8571580B2 (en) * | 2006-06-01 | 2013-10-29 | Loopt Llc. | Displaying the location of individuals on an interactive map display on a mobile communication device |
US20080147730A1 (en) * | 2006-12-18 | 2008-06-19 | Motorola, Inc. | Method and system for providing location-specific image information |
US8462109B2 (en) * | 2007-01-05 | 2013-06-11 | Invensense, Inc. | Controlling and accessing content using motion processing on mobile devices |
EP2153377A4 (en) * | 2007-05-04 | 2017-05-31 | Qualcomm Incorporated | Camera-based user input for compact devices |
US8254684B2 (en) * | 2008-01-02 | 2012-08-28 | Yahoo! Inc. | Method and system for managing digital photos |
US9582937B2 (en) * | 2008-01-02 | 2017-02-28 | Nokia Technologies Oy | Method, apparatus and computer program product for displaying an indication of an object within a current field of view |
US8423076B2 (en) * | 2008-02-01 | 2013-04-16 | Lg Electronics Inc. | User interface for a mobile device |
US8446373B2 (en) * | 2008-02-08 | 2013-05-21 | Synaptics Incorporated | Method and apparatus for extended adjustment based on relative positioning of multiple objects contemporaneously in a sensing region |
US9200901B2 (en) * | 2008-06-19 | 2015-12-01 | Microsoft Technology Licensing, Llc | Predictive services for devices supporting dynamic direction information |
US8467991B2 (en) * | 2008-06-20 | 2013-06-18 | Microsoft Corporation | Data services based on gesture and location information of device |
WO2010002921A1 (en) * | 2008-07-01 | 2010-01-07 | Yoostar Entertainment Group, Inc. | Interactive systems and methods for video compositing |
KR20100055254A (ko) * | 2008-11-17 | 2010-05-26 | 엘지전자 주식회사 | 이동 단말기의 poi 정보 제공 방법 및 그 장치 |
US8351910B2 (en) * | 2008-12-02 | 2013-01-08 | Qualcomm Incorporated | Method and apparatus for determining a user input from inertial sensors |
KR101467796B1 (ko) * | 2009-01-12 | 2014-12-10 | 엘지전자 주식회사 | 이동단말기 및 그 제어 방법 |
US20100182340A1 (en) * | 2009-01-19 | 2010-07-22 | Bachelder Edward N | Systems and methods for combining virtual and real-time physical environments |
US20110050730A1 (en) * | 2009-08-31 | 2011-03-03 | Paul Ranford | Method of displaying data on a portable electronic device according to detected movement of the portable electronic device |
US9810533B2 (en) * | 2011-04-27 | 2017-11-07 | Trimble Inc. | Railway track monitoring |
US9031543B2 (en) * | 2012-06-06 | 2015-05-12 | Qualcomm Incorporated | Visualization of network members based on location and direction |
KR102114377B1 (ko) * | 2013-07-05 | 2020-05-25 | 삼성전자주식회사 | 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치 |
JP6291144B2 (ja) * | 2015-09-11 | 2018-03-14 | 富士フイルム株式会社 | 走行支援装置及び走行支援装置による走行支援方法 |
GB2545900B (en) * | 2015-12-21 | 2020-08-12 | Canon Kk | Method, device, and computer program for re-identification of objects in images obtained from a plurality of cameras |
-
2009
- 2009-09-24 KR KR1020090090427A patent/KR101648339B1/ko active IP Right Grant
-
2010
- 2010-09-21 EP EP10177759.7A patent/EP2302322B1/en active Active
- 2010-09-21 EP EP19206727.0A patent/EP3637050A1/en active Pending
- 2010-09-23 US US12/924,253 patent/US9410810B2/en active Active
-
2016
- 2016-08-08 US US15/231,632 patent/US9915544B2/en active Active
-
2018
- 2018-02-05 US US15/888,551 patent/US10190885B2/en active Active
-
2019
- 2019-01-28 US US16/259,158 patent/US10578452B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004191642A (ja) * | 2002-12-11 | 2004-07-08 | Fuji Photo Film Co Ltd | 画像表示装置 |
Also Published As
Publication number | Publication date |
---|---|
US20160349071A1 (en) | 2016-12-01 |
US9915544B2 (en) | 2018-03-13 |
US20110071757A1 (en) | 2011-03-24 |
EP2302322B1 (en) | 2019-12-18 |
EP3637050A1 (en) | 2020-04-15 |
US10578452B2 (en) | 2020-03-03 |
EP2302322A3 (en) | 2016-12-07 |
US20190154458A1 (en) | 2019-05-23 |
KR20110032765A (ko) | 2011-03-30 |
US9410810B2 (en) | 2016-08-09 |
EP2302322A2 (en) | 2011-03-30 |
US20180156628A1 (en) | 2018-06-07 |
US10190885B2 (en) | 2019-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101648339B1 (ko) | 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치 | |
JP6763448B2 (ja) | 視覚強化ナビゲーション | |
KR102021050B1 (ko) | 내비게이션 정보를 제공하는 방법, 기계로 읽을 수 있는 저장 매체, 이동 단말 및 서버 | |
US7088389B2 (en) | System for displaying information in specific region | |
KR101285360B1 (ko) | 증강현실을 이용한 관심 지점 표시 장치 및 방법 | |
KR101330805B1 (ko) | 증강 현실 제공 장치 및 방법 | |
JP4380550B2 (ja) | 車載用撮影装置 | |
KR20220028042A (ko) | 포즈 결정 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
JP5571498B2 (ja) | 周囲情報検索装置及び周囲情報検索方法 | |
WO2005124594A1 (en) | Automatic, real-time, superimposed labeling of points and objects of interest within a view | |
KR101259598B1 (ko) | 로드뷰 제공 장치 및 방법 | |
JP2013175883A (ja) | クライアント端末、サーバ、およびプログラム | |
JP6087712B2 (ja) | 分布データ表示装置、方法及びプログラム | |
JP4077385B2 (ja) | 画像処理を用いたグローバル座標取得装置 | |
KR20100060549A (ko) | 지형지물 인식방법 | |
CN113063421A (zh) | 导航方法及相关装置、移动终端、计算机可读存储介质 | |
CN114549633A (zh) | 位姿检测方法、装置、电子设备和存储介质 | |
JP2006125871A (ja) | ナビゲーション装置 | |
WO2012004622A1 (en) | An augmented reality method, and a corresponding system and software | |
JP2016195323A (ja) | 情報処理装置、情報処理方法、プログラム | |
CN116295406A (zh) | 一种室内三维定位方法及系统 | |
JP4556096B2 (ja) | 情報処理装置および方法、記録媒体、並びにプログラム | |
JP2006047147A (ja) | 情報提供装置 | |
JP2010171664A (ja) | 携帯情報端末、情報表示制御方法、及び、情報表示制御プログラム | |
JP2014066595A (ja) | ナビゲーション装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190730 Year of fee payment: 4 |