KR20140137980A - Mobile termianl, computer-readable recording medium and method for image recognation and implementing augmented reality using smart sensors - Google Patents

Mobile termianl, computer-readable recording medium and method for image recognation and implementing augmented reality using smart sensors Download PDF

Info

Publication number
KR20140137980A
KR20140137980A KR1020130059352A KR20130059352A KR20140137980A KR 20140137980 A KR20140137980 A KR 20140137980A KR 1020130059352 A KR1020130059352 A KR 1020130059352A KR 20130059352 A KR20130059352 A KR 20130059352A KR 20140137980 A KR20140137980 A KR 20140137980A
Authority
KR
South Korea
Prior art keywords
image
mobile terminal
user
camera module
augmented reality
Prior art date
Application number
KR1020130059352A
Other languages
Korean (ko)
Inventor
박기현
Original Assignee
테크빌닷컴 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 테크빌닷컴 주식회사 filed Critical 테크빌닷컴 주식회사
Priority to KR1020130059352A priority Critical patent/KR20140137980A/en
Publication of KR20140137980A publication Critical patent/KR20140137980A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention can be implemented in a mobile terminal including a camera and a smart sensor, wherein the mobile terminal comprises: a smart sensor for acquiring three-dimensional azimuth angles of the camera and the mobile terminal; a sensor signal processing unit for controlling and processing the acquired signal; and a view angle adjusting unit which compares the sensor signal with an acquired reference image, analyzes a result, and adjusts a correlation between the three-dimensional azimuth angles and a view point of the camera toward a subject. Three-dimensional azimuth angle information of a terminal, which is obtained when taking an image of the subject by using the smart sensor, is analyzed such that images to be compared with the same azimuth angle can be quickly searched for in a database. By using the present invention, by adjusting the correlation between the three-dimensional azimuth angle of the terminal and the view point of the camera and performing a primary filtering process, an unnecessary comparing process related to images, which are irrelevant to the taken image, can be ignored in the data base including a plurality of images to be compared with. Also, by matching the image taken by the camera with a corresponding image to be compared, feature comparison time is reduced and augmented reality is quickly provided.

Description

스마트 센서를 이용한 영상 인식 및 증강 현실 제공 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체{MOBILE TERMIANL, COMPUTER-READABLE RECORDING MEDIUM AND METHOD FOR IMAGE RECOGNATION AND IMPLEMENTING AUGMENTED REALITY USING SMART SENSORS}TECHNICAL FIELD [0001] The present invention relates to a method and a device for providing image recognition and augmented reality using a smart sensor, a terminal device, and a computer readable recording medium. [0002] MOBILE TERMIANL, COMPUTER-READABLE RECORDING MEDIUM AND METHOD FOR IMAGE RECOGNATION AND IMPLEMENTING AUGMENTED REALITY USING SMART SENSORS [

본 발명은 증강 현실 제공 방법에 관한 것이며, 구체적으로는 모바일 단말기를 이용할 때 증강 현실 제공을 가속화 시킬 수 있는 새로운 증강 현실 제공 방법에 관한 것이다. The present invention relates to a method of providing an augmented reality, and more particularly, to a method of providing augmented reality capable of accelerating provision of augmented reality when using a mobile terminal.

최근 스마트폰, 태플릿 등과 같이 다양한 모바일 단말기가 출시 되면서, 모바일 단말기의 카메라를 통해 실제 영상 화면 위에 객체를 보여주는 증강 현실 기술이 많이 이용되고 있다.Recently, a variety of mobile terminals such as smartphones and tablets have been introduced, and augmented reality technologies that show objects on a real image screen through a camera of a mobile terminal are widely used.

증강 현실(augmented reality)은 사용자가 눈으로 보는 현실 세계의 실제 이미지 상에 가상 이미지를 겹쳐 보여 주는 기술이다. 이러한 증강 현실 기술은 방통 통신 분야, 의료 기기 분야, 그리고 최근 스마트폰, 네비게이션 등의 모바일 장치 분야에 점차 확대되고 있다.Augmented reality is a technology that superimposes a virtual image on a real image of the real world seen by the user. Such augmented reality technology is gradually expanding to the field of communication in the field of communication, medical device, and mobile device such as smartphone and navigation.

일 예로, 최근의 스마트폰과 같은 모바일 기기는 이미지를 촬영하는 카메라, 상기 카메라로부터 취득한 영상 정보를 판단하는 제어부, 그리고 사용자에게 영상 정보를 표시하는 디스플레이부를 포함한다. 이와 같은 구성의 모바일 단말기에 증강 현실 기능을 구현하는 경우, 제어부가 카메라에 의해 촬영된 전방의 실제 이미지들을 분석하여, 실제 이미지에 이와 관련된 정보 이미지를 부가하여, 사용자에게 실시간으로 단말기 전면에 있는 이미지와 관련된 정보를 실시간으로 표시하게 된다.For example, a recent mobile device such as a smart phone includes a camera that captures an image, a control unit that determines image information acquired from the camera, and a display unit that displays image information to a user. When the augmented reality function is implemented in the mobile terminal having the above-described configuration, the control unit analyzes the actual images in front of the camera, and adds the information image related to the actual image to the user, In real time.

이와 같이 대부분의 스마트 장비에는 카메라를 내장하고 있으며, 카메라와 영상처리 기술을 이용한 다양한 어플리케이션이 출시되어 왔지만, 대상물체(Target Object) 인식 기술을 이용한 어플리케이션 기술 수준은 초기 단계 또는 많은 실험이 이루어지는 단계에 있으며 점차 신뢰할 수준으로 향상되고 있는 상황이다. Most smart devices have built-in cameras, and various applications using cameras and image processing technologies have been introduced. However, the level of application technology using target object recognition technology is at an early stage or at a stage where many experiments are performed And it is gradually improving to a reliable level.

인식 기술을 바탕으로 하는 증강현실 기술은 카메라로 획득한 영상을 이용하는 기술로, 입력된 영상을 분석하여 기 등록되어 있는 영상과 일치하는 영상이 존재할 경우 상기 기 등록된 영상에 대응하는 증강 정보를 제공하는 기술이다.Augmented reality technology based on recognition technology is a technique using an image acquired by a camera. When there is an image matching an already registered image by analyzing the input image, the augmented reality information corresponding to the previously registered image is provided Technology.

도 1은 종래의 일반적인 증강 현실 제공 방법을 나타낸 흐름도이며, 도 2는 종래의 증강 현실 제공 시스템이다.FIG. 1 is a flowchart illustrating a conventional method of providing an augmented reality, and FIG. 2 is a conventional augmented reality providing system.

도 1 및 도 2를 참조하면, 종래의 증강 현실 제공 시스템(10)은 실 영상 획득 장치(11), 특징 추출 장치(13)와 특징 비교 장치(14)를 포함하는 패턴 인식부(12), 특징 등록 장치(15), 데이터베이스(16), 합성영상 생성 장치(17) 및 합성영상 출력장치(18)를 포함한다. 1 and 2, a conventional augmented reality providing system 10 includes a pattern recognition unit 12 including a real image acquisition device 11, a feature extraction device 13 and a feature comparison device 14, A feature registration device 15, a database 16, a composite image generation device 17, and a composite image output device 18.

먼저 증강 현실 서비스를 제공하기 전에 실 영상 획득 장치(11)에서 증강 현실을 제공하기 위한 대상 영상들을 습득하여 특징 등록 장치(15)를 통해 이 대상 영상들의 특징을 데이터베이스(16)에 등록해 놓는다. 그런 다음 사용자에게 증강 현실을 제공하게 된다. Before the augmented reality service is provided, the target images for providing the augmented reality are acquired from the real image acquisition device 11 and the characteristics of the target images are registered in the database 16 through the feature registration device 15. [ It then provides the augmented reality to the user.

도 1을 참조하면, 종래의 증강 현실 제공 방법은 카메라를 통한 실 영상 획득하고 이를 입력받는 단계(S01), 입력된 영상의 특징을 추출하고 분석하는 단계(S02), 서버 또는 단말기에 등록된 데이터베이스와 카메라를 통해 입력된 영상의 특징점을 비교하고 이 비교 분석을 통해 영상을 인식하는 단계(S03), 영상 인식에 성공한 경우 이 영상에 대응되는 증강 현실 정보를 카메라 영상에 합성하여 합성 영상을 생성하는 단계(S04) 및 사용자에게 카메라 실 영상에 증강 현실 정보가 합성된 증강 현실 정보를 제공하는 단계(S05)를 포함한다.Referring to FIG. 1, a conventional method of providing an augmented reality includes a step S01 of acquiring and inputting a real image through a camera, extracting and analyzing a feature of the input image (S02), a server (S03) of comparing the feature points of the input image through the camera and recognizing the image through the comparative analysis (S03). When the recognition is successful, the augmented reality information corresponding to the image is synthesized with the camera image to generate a composite image (S04) and providing the user with the augmented reality information in which the augmented reality information is synthesized in the camera room image (S05).

이와 같은 종래의 증강 현실 제공 방법을 살펴보면, 도 2의 패턴인식부(12)가 전체 증강 현실 시스템의 핵심 부분을 형성하고 있고, 이에 따라 이 시스템의 처리 과정과 속도가 전체 처리 속도에 큰 영향을 미친다. 증강 현실의 처리 속도는 패턴인식부(12) 내부에 존재하는 특징비교장치가 비교해야 할 등록된 데이터베이스의 양에 따라 처리 시간이 증가되게 되는데, 일반적인 증강 현실 시스템은 카메라를 통해 획득된 영상 정보만을 이용하는 형태이므로 카메라 입력 영상 단일 정보에만 의존하기 때문에 안정적인 특징 비교와 성공률을 높여 신뢰할 수준의 증강 현실 서비스 제공을 위해서는 3차원 공간상에 존재하는 대상물체에 대해 다양한 카메라 시야각에서 촬영된 대상물체 영상 데이터베이스의 확보는 필수적이다.The pattern recognition unit 12 shown in FIG. 2 forms a core part of the entire augmented reality system, and thus the processing and speed of the system greatly affect the overall processing speed. It goes crazy. The processing time of the augmented reality is increased according to the amount of the registered database to be compared by the feature comparison unit existing in the pattern recognition unit 12. In general, the augmented reality system only acquires the image information obtained through the camera Since it depends on only the single information of the camera input image, in order to provide a reliable comparison of the characteristics and increase the success rate and to provide a reliable augmented reality service, the object image database Securing is essential.

이에 따라 높은 수준의 증강 현실 제공 시스템을 구현하기 위해서 대상 물체 영상 데이터베이스의 양을 많이 할수록 좋겠지만, 그러면 비교해야 할 데이터베이스가 많아 지게 되고 특징 비교 처리 속도가 증가하게 되는 문제가 있다. 이와 같이 처리 속도 문제 때문에 데이터베이스의 양을 무조건적으로 늘리기만 할 수도 없는 것이 현실이다.Accordingly, in order to realize a high-level augmented reality providing system, it is desirable to increase the amount of the target object image database, but there is a problem that the number of databases to be compared increases and the speed of feature comparison processing increases. As a result, the amount of the database can not be increased unconditionally because of the processing speed problem.

따라서, 대상 물체 인식률 향상을 위해 다량의 영상 데이터베이스를 이용하면서 동시에 비교 처리 속도를 높이는 신뢰할 수준의 방법이 요구되고 있다.Accordingly, there is a need for a reliable method for increasing the comparison processing speed while using a large amount of image database for improving the object recognition rate.

또한, 종래의 스마트 단말기 어플리케이션에 적용된 증강 현실(또는 패턴 인식) 기술의 경우 처리 및 응답 속도 한계로 인해 실시간 처리가 어려운 경우가 많아, 저장되어 있는 정지 영상이나 카메라로 획득된 단컷 영상을 이용한 경우가 많으며, 실시간 처리 장치의 경우 인식률이 많이 떨어지는 경향이 있는 문제점도 존재한다. In the case of augmented reality (or pattern recognition) technology applied to a conventional smart terminal application, real-time processing is often difficult due to processing and response speed limitations. Thus, a case where a stored still image or a short- There is also a problem that the recognition rate tends to decrease much in the case of a real-time processing device.

본 발명은 상술한 문제점을 모두 해결하는 것을 그 목적으로 한다.It is an object of the present invention to solve all the problems described above.

또한 본 발명은 대상 물체에 대한 인식률 향상을 위해 다량의 영상 데이터베이스를 이용하면서도 동시에 영상 비교 처리 속도를 높일 수 있는 새로운 증강 현실 제공 방법을 제공하는 것을 목적으로 한다.It is another object of the present invention to provide a new augmented reality providing method capable of simultaneously increasing the image comparison processing speed while using a large amount of image database to improve the recognition rate of a target object.

또한 본 발명은 카메라와 스마트센서를 포함하는 일반적인 모바일 단말기 환경에서 영상 정보와 센서 정보를 이용하여 좀 더 빠른 처리 속도를 제공할 수 있는 증강 현실 제공 방법을 제공하는 것을 목적으로 한다.Another object of the present invention is to provide an augmented reality providing method that can provide a faster processing speed by using image information and sensor information in a general mobile terminal environment including a camera and a smart sensor.

상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.In order to accomplish the above object, a representative structure of the present invention is as follows.

본 발명의 일 태양에 따르면, 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 방법이, (a) 증강 현실 서비스를 제공 받기 원하는 소정의 객체가 있을 시, 사용자로 하여금 상기 객체에 대한 기준 영상을 참조로 하여 상기 객체를 상기 기준 영상처럼 촬영하도록 유도하는 단계, (b) 상기 촬영된 객체에 대한 영상이 상기 기준 영상을 참조로 하여 인식에 성공했을 시, 상기 사용자의 모바일 단말기의 카메라 모듈이 상기 객체를 바라보는 3차원 방위각 정보를 참조로 하고, 상기 기준 영상 내의 객체의 크기와 상기 사용자에 의해 촬영된 상기 객체의 크기의 비교를 통하여, 상기 사용자의 모바일 단말기의 카메라 모듈로부터 상기 촬영한 객체와의 거리를 계산하는 단계, (c) 상기 3차원 방위각 정보 및 상기 사용자의 모바일 단말기의 카메라 모듈로부터 상기 객체와의 거리 값을 참조로 하여, 상기 사용자가 상기 모바일 단말기를 들고 있는 높이 및 상기 사용자 특성에 따른 상기 사용자의 모바일 단말기의 카메라 모듈로부터 상기 객체까지의 지면 상에 투영된 거리를 산출하고, 이를 참조로 하여 보정 기준값을 획득하는 단계, (d) 상기 보정 기준값을 통해 상기 3차원 방위각을 보정하고, 상기 보정된 3차원 방위각과 상기 사용자의 모바일 단말기의 카메라 모듈을 통해 입력되는 카메라 영상을 페어링하는 단계, (e) 증강 현실 제공을 위한 데이터베이스 상에서 상기 사용자 모바일 단말기의 보정된 3차원 방위각 정보와 유사한 방위각 정보에 대응하는 적어도 하나의 비교 대상 영상을 획득하는 단계, (f) 상기 데이터베이스의 비교 대상 영상과 상기 카메라 영상이 소정의 유사도 이상인 것으로 판단되면, 상기 특정 비교 대상 영상에 대응되어 저장되어 있는 정보를 사용하여 상기 모바일 단말기의 카메라 모듈을 통해 입력되는 영상을 인식하도록 하는 단계를 포함하는 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 방법을 제시한다.According to an aspect of the present invention, there is provided a method of providing an image enhancement and augmented reality using a smart sensor, comprising the steps of: (a) when a predetermined object desired to receive an augmented reality service is present, (B) when the image of the photographed object is successfully recognized with reference to the reference image, the camera module of the mobile terminal of the user inputs the object Dimensional azimuth information as reference and comparing the size of the object in the reference image and the size of the object photographed by the user to obtain a distance from the camera module of the user's mobile terminal to the photographed object Dimensional azimuth information from the camera module of the mobile terminal of the user, (c) The height of the user holding the mobile terminal and the distance projected on the ground from the camera module of the mobile terminal of the user to the object according to the user characteristic are calculated with reference to the distance value to the object, (D) correcting the 3D azimuth using the correction reference value, and pairing the corrected 3D azimuth with a camera image input through the camera module of the user's mobile terminal (E) obtaining at least one comparison object image corresponding to azimuth information similar to the corrected three-dimensional azimuth information of the user mobile terminal on a database for providing an augmented reality, (f) And if the camera image is determined to be equal to or greater than a predetermined degree of similarity, Suggests using a smart sensor which includes the step of recognizing that the images input through the camera module of the mobile device using the information which is stored corresponding to a particular comparison-object image and the image recognition method for providing augmented reality.

본 발명의 다른 태양에 따르면, 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 단말 장치가, 증강 현실 서비스를 제공 받기 원하는 소정의 객체가 있을 시, 사용자로 하여금 상기 객체에 대한 기준 영상을 참조로 하여 상기 객체를 상기 기준 영상처럼 촬영하도록 유도하여 상기 객체에 대한 영상이 촬영되면, 상기 촬영된 객체에 대한 영상이 상기 기준 영상을 참조로 하여 인식에 성공했을 시, 상기 사용자의 모바일 단말기의 카메라 모듈이 상기 객체를 바라보는 3차원 방위각 정보를 참조로 하고, 상기 기준 영상 내의 객체의 크기와 상기 사용자에 의해 촬영된 상기 객체의 크기의 비교를 통하여, 상기 사용자의 모바일 단말기의 카메라 모듈로부터 상기 촬영한 객체와의 거리를 계산하고, 상기 3차원 방위각 정보 및 상기 사용자의 모바일 단말기의 카메라 모듈로부터 상기 객체와의 거리 값을 참조로 하여, 상기 사용자가 상기 모바일 단말기를 들고 있는 높이 및 상기 사용자 특성에 따른 상기 사용자의 모바일 단말기의 카메라 모듈로부터 상기 객체까지의 지면 상에 투영된 거리를 산출하고, 이를 참조로 하여 보정 기준값을 획득하는 보정 기준값 산출부, 상기 보정 기준값을 통해 상기 3차원 방위각을 보정하기 위한 시야각 보정부, 상기 보정된 3차원 방위각과 상기 사용자의 모바일 단말기의 카메라 모듈을 통해 입력되는 카메라 영상을 페어링하는 센서신호 처리부, 증강 현실 제공을 위한 데이터베이스 상에서 상기 사용자 모바일 단말기의 보정된 3차원 방위각 정보와 유사한 방위각 정보에 대응하는 적어도 하나의 비교 대상 영상을 획득하는 비교 대상 영상 획득부, 및 상기 데이터베이스의 비교 대상 영상과 상기 카메라 영상이 소정의 유사도 이상인 것으로 판단되면, 상기 특정 비교 대상 영상에 대응되어 저장되어 있는 정보를 사용하여 상기 모바일 단말기의 카메라 모듈을 통해 입력되는 영상을 인식하도록 하는 증강 현실 제공부를 포함하는 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 단말 장치를 제시한다.According to another aspect of the present invention, there is provided an image enhancement and realization terminal device using a smart sensor, wherein when a predetermined object desired to receive an augmented reality service is present, When the image of the object is photographed and the image of the photographed object is successfully recognized with reference to the reference image, Dimensional azimuth angle information for viewing the object and comparing the size of the object in the reference image and the size of the object photographed by the user from the camera module of the mobile terminal of the user, Dimensional azimuth angle information and the distance of the user's mobile terminal A distance from the camera module to the object is referred to as a distance from the camera module of the user's mobile terminal to the object according to the height of the user holding the mobile terminal, And a camera module of the mobile terminal of the user. The camera module of the mobile terminal of the present invention may further comprise: a correction reference value calculation unit that calculates a correction reference value by referring to the corrected reference value; and a viewing angle correction unit that corrects the three- Acquiring at least one comparison object image corresponding to azimuth information similar to the corrected three-dimensional azimuth information of the user mobile terminal on a database for providing an augmented reality, And a database An augmented reality providing unit for recognizing an image input through a camera module of the mobile terminal using information stored in correspondence with the specific comparison target image if it is determined that the comparison target image and the camera image are equal to or more than a predetermined degree of similarity, And a terminal device for image recognition and augmented reality using a smart sensor.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 및 상기 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체가 더 제공된다. In addition to this, another method for implementing the present invention and a computer-readable recording medium for executing the method are further provided.

본 발명에 의하면, 단말기의 3차원 방위각과 카메라 시점의 상관관계를 조정함으로써 일차적인 필터링 과정을 통해 다수의 비교대상 영상을 포함하는 데이터베이스 상에서 촬영영상과 관련 없는 데이터베이스 내의 영상들과의 불필요한 비교 과정을 회피할 수 있고, 카메라를 통하여 획득된 영상과 이에 대응하는 데이터베이스 상의 해당 비교대상 영상을 매칭시켜 특징 비교 시간을 단축하게 하고 이에 따라 증강현실 제공을 가속화 시킬 수 있는 효과를 얻을 수 있다.According to the present invention, an unnecessary comparison process with images in a database that is not related to a photographed image is performed on a database including a plurality of comparison target images through a primary filtering process by adjusting the correlation between the 3D azimuth angle of the terminal and the camera view point It is possible to obtain the effect of accelerating the provision of the augmented reality by shortening the feature comparison time by matching the image obtained through the camera with the corresponding comparison object image in the corresponding database.

도 1은 종래의 일반적인 증강 현실 제공 방법을 나타낸 흐름도다.
도 2는 종래의 증강 현실 제공 시스템이다.
도 3은 본 발명에 따른 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 방법의 흐름도를 나타낸다.
도 4 및 도 5는 사물을 보는 다양한 시점의 데이터베이스 획득 방법을 설명하기 위한 참고도이다.
도 6은 본 발명에 따른 스마트 센서를 이용한 영상 인식 및 증강 현실을 제공하는 단말 장치의 구성을 나타내는 개략도이다.
FIG. 1 is a flowchart illustrating a conventional method of providing augmented reality.
2 is a conventional augmented reality providing system.
3 is a flowchart illustrating a method of providing an image recognition and augmented reality using a smart sensor according to the present invention.
Figs. 4 and 5 are reference views for explaining a database acquisition method at various points in time to view objects.
6 is a schematic diagram illustrating a configuration of a terminal device for providing an image enhancement and augmented reality using a smart sensor according to the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the position or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.

본 발명은 모바일 단말기의 스마트 센서, 예를 들어 가속도 센서, 각속도 센서, 지자기 센서, 기울기 센서 등을 사용하여 모바일 단말기가 영상을 촬영할 때 모바일 단말기의 3차원 방위각을 산출하고 이를 기 설정된 보정 기준값을 통해 보정된 3차원 방위각으로 보정하고 이를 영상과 페어링하고, 이를 바탕으로 데이터베이스 내의 영상을 선택하여 비교하는 방법을 제시한다.The present invention calculates a three-dimensional azimuth angle of a mobile terminal when a mobile terminal captures an image using a smart sensor of the mobile terminal, for example, an acceleration sensor, an angular velocity sensor, a geomagnetic sensor, a tilt sensor, We propose a method to select the images in the database based on the corrected azimuth angle.

도 3은 본 발명에 따른 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 방법의 흐름도를 나타낸다.3 is a flowchart illustrating a method of providing an image recognition and augmented reality using a smart sensor according to the present invention.

도 3을 참조하면, 우선, 증강 현실을 제공하기 위한 대상 인식 물체로부터 일정한 거리와 다양한 3차원 방위각을 갖는 다양한 시점의 영상들을 데이터베이스로 구성한다(S301). 이 단계는 이후에 사용자들이 증강 현실 서비스를 이용하고자 할 때 증강 현실 제공 대상이 되는 영상의 데이터베이스와 사용자 현재 상황과 환경에 맞도록 보정값을 책정할 수 있게 하기 위한 동기화 또는 초기화 과정에 해당한다. 여기서의 다양한 시점은 반지름이 동일한 구면상의 점들로 이해될 수 있을 것이다.Referring to FIG. 3, first, images of various viewpoints having a certain distance and various three-dimensional azimuth angles from an object recognition object for providing an augmented reality are formed into a database (S301). This step corresponds to a synchronization or initialization process for enabling a user to set a correction value in accordance with the current database and the user's current situation and environment when the user intends to use the augmented reality service. The various points here can be understood as points on the spheres with the same radius.

도 4 및 도 5는 사물을 보는 다양한 시점의 데이터베이스 획득 방법을 설명하기 위한 참고도이다.Figs. 4 and 5 are reference views for explaining a database acquisition method at various points in time to view objects.

3차원 현실 세계에서 어떤 물체를 바라볼 때, 물체의 중심을 기준으로 어느 각도와 어느 거리에서 바라보느냐에 따라 대상 물체의 모양이 다르게 보이게 된다. 도 4에서는 설명을 쉽게 하기 위해 어느 시점과 어느 시야각에서나 동일하게 원으로 보이는 ‘구’를 도시하여 설명하였다.When you look at an object in the 3D real world, the shape of the object appears different depending on the angle and the distance from the center of the object. In Fig. 4, a "sphere" which is seen as a circle at any viewing angle and at any viewing angle is shown and described for easy explanation.

대상 물체(대상 물체의 중심 또는 한 점)에서 사람의 시점 사이의 각도(시야각)에 따른 차이는, 카메라를 통해 획득한 2차원 이미지에서도 동일한 현상이 관찰된다. 특정 물체를 바라볼 때, 동일한 3차원 방위각(a) 선상에서 물체의 중심을 향하여 바라보게 되면 보이는 모양은 같게 나타난다. 이때 대상 물체와 시점과의 거리(d)에 따라 크기는 다르게 보인다. 따라서 도 4에서와 같이 구의 경우 어느 곳에서도 바라보더라도 2차원 이미지상에서는 원으로 보이기 때문에 물체와 카메라 사이의 거리만 일정하다면 같인 3차원 방위각에서 보더라도 같은 크기의 원 모양으로 보이게 된다. The same phenomenon is observed in a two-dimensional image obtained through a camera, depending on the angle (viewing angle) between the viewpoint of the person and the viewpoint of the person from the object (the center or one point of the object). When you look at a specific object, you see the same shape when you look at the same three-dimensional azimuth (a) line toward the center of the object. In this case, the size varies depending on the distance d between the object and the viewpoint. Therefore, as shown in FIG. 4, the spherical surface looks like a circle on a two-dimensional image, so that if the distance between the object and the camera is constant, the spherical surface looks like a circle having the same three-dimensional azimuth angle.

본 발명에 따른 증강 현실 제공 방법에서는 단계 S301에서 영상 인식을 위한 데이터베이스 구성 시 다양한 시야각에서 데이터베이스 영상을 촬영하고 이중에서 인식 대상 물체와의 거리는 일정하게 유지된 영상들을 하나의 그룹으로 묶어 하나의 묶음 데이터베이스를 구성하게 된다. 즉, 도 4를 참조하면, 촬영 시점은 다양한 크기의 구의 표면들의 다수 지점들이 될 수 있고 이 중에서 하나의 구 표면의 다수 지점들에서 촬영된 영상들을 하나의 묶음 데이터베이스들로 구성하게 되는 것이다. In the method for providing an augmented reality according to the present invention, a database image is photographed at various viewing angles at the time of constructing a database for image recognition in step S301. In the augmented reality providing method, images in which the distance from the object to be recognized is kept constant are grouped into one group, . In other words, referring to FIG. 4, the photographing time point may be a plurality of points of surfaces of spheres of various sizes, and the images photographed at a plurality of points on one spherical surface are composed of one bundle databases.

한편 인식 알고리즘의 경우 영상 처리 과정을 통해 대상 물체 크기 변화와 시야각의 작은 변화에는 비교적 인식률이 높지만, 데이터베이스에 보유된 영상들과 시야각 차이가 크거나, 촬영 시 대상 물체와의 거리 차이로 인해 획득한 이미지 상에서 물체가 너무 작게 나올 경우 인식률에 영상을 미쳐 인식이 실패하는 경우가 발생할 수 있다. 그러므로 최적의 동작을 위해서는 대상 물체가 너무 작게 보이지 않게 일정 거래 범위내에서 사용자가 대상 물체를 촬영하는 것과 함께, 사용자가 촬영한 영상의 3차원 시점과 가장 근접한 시점을 가지는 대상 데이터베이스 내의 영상과 비교가 이뤄져야 효율적이고 빠르게 인식 동작이 이뤄질 수 있게 된다. On the other hand, in the case of the recognition algorithm, although the recognition rate is relatively high in the small change of the object size and the viewing angle through the image processing process, the difference in the viewing angle from the images stored in the database is large, If the object is too small on the image, it may fail to recognize the image at the recognition rate. Therefore, for optimal operation, the user shoots the object within a certain trade range so that the object does not appear too small, and the image is compared with the image in the object database having the closest point to the three- It is necessary to perform the recognition operation efficiently and quickly.

즉, 본 발명의 핵심은 인식 대상물체의 중심을 원점으로 카메라 시점과 이루는 3차원 방위각 정보를 이용하여 특정 대상 데이터베이스 그룹(1개의 그룹 유사한 근사치를 갖는 몇 개의 그룹)을 뽑아내고, 이 단계를 통해 적은 양의 적절한 대상 데이터베이스 내의 영상 들과 영상 인식을 위한 매칭을 시도하여 인식률과 동작 시간을 단축시킨다는 것이다.That is, the core of the present invention is to extract a specific object database group (a group of several groups having similar approximate values) using the three-dimensional azimuth angle information that forms the center of the object to be recognized with the camera viewpoint, And to shorten the recognition rate and the operation time by attempting matching for image recognition with a small amount of images in an appropriate object database.

다시 도 3을 참조하면, 본 발명에 따른 증강 현실 제공 방법은 데이터베이스를 구성한 다음, 사용자가 증강 현실 서비스를 제공 받기 원하는 소정의 객체가 있을 때, 사용자로 하여금 상기 객체에 대한 기준 영상을 참조로 하여 상기 객체를 기준 영상처럼 촬영하도록 하게 한다(S302).Referring again to FIG. 3, the method for providing an augmented reality according to the present invention includes configuring a database, and when a user desires to receive an augmented reality service, And causes the object to be photographed as a reference image (S302).

기준 영상은 아래에 설명할 보정 값을 설정하기 위한 하나의 영상이며 도 5를 참조하여 설명된다. The reference image is one image for setting the correction value to be described below and is described with reference to Fig.

대상 인식 물체의 중심을 원점이라 했을 때 카메라의 시점은 3차원 방위각(a)와 중심과 카메라 간의 거리(d)를 이용한 구면 좌표계를 이용하여 표현 가능한데, 일반적으로 사용자가 증강 현실을 위해 영상을 획득할 때 카메라가 피사체를 향하게 되며, 이때 모바일 단말기에 존재하는 방위각 센서와 가속도 센서 값을 통해 3차원 방위각을 획득할 수 있지만, 모바일 단말기와 피사체 간의 거리는 알 수 없는 상태이다. When the center of the object is assumed to be the origin, the viewpoint of the camera can be expressed using the 3D coordinate system using the 3D azimuth angle (a) and the distance between the center and the camera (d). Generally, The azimuth angle and the azimuth angle of the mobile terminal can be obtained. However, the distance between the mobile terminal and the object is unknown.

도 5에 보는 바와 같이 일반적으로 사용자가 모바일 단말기로 증강 현실 시스템을 이용할 경우 인식 대상 물체의 특정 부분(같은 면 같은 씬)을 촬영하도록 유도하더라도 사용자의 신장에 따라, 모바일 단말기가 위치하는 지면과의 높이(h)와 대상 물체로부터 위치하는 지점에 따른 거리(l)는 사용자의 개인 특성과 행동 습성에 따라 차이가 발생하게 된다.As shown in FIG. 5, in general, when a user uses the augmented reality system as a mobile terminal, even if the user induces him or her to photograph a specific portion (scene on the same surface) of the recognition object, The distance (l) between the height (h) and the point located from the target object will vary depending on the user's personal characteristics and behavioral habits.

따라서, 사용자가 촬영한 단말기의 3차원 방위각 정보(a)만으로 데이터베이스 상에 존재하는 비교 대상 영상 데이터베이스 (또는 영상 데이터베이스 그룹)을 설정하고 바로 비교할 수 없으며, 데이터베이스의 방위각과의 차이를 반영한 보정값을 설정해 주어야 근접한 대상 데이터베이스를 선택할 수 있게 된다. 즉, 본 발명에 따른 방법에서는 이러한 데이터베이스의 방위각과의 차이를 반영한 보정값을 설정하는 단계를 포함한다. Therefore, it is not possible to directly set the comparison object image database (or the image database group) existing on the database with only the three-dimensional azimuth information a of the terminal photographed by the user and to directly compare the correction value reflecting the difference with the azimuth angle of the database You will have to set it up so that you can select the nearest target database. That is, the method according to the present invention includes a step of setting a correction value reflecting a difference between the azimuth angle of the database and the azimuth angle of the database.

데이터베이스 상에 존재하는 한 영상은 3차원 방위각(a')과, 특정 거리값(d')을 가지는데, 보정값을 설정하기 위한 과정으로는, 한 영상을 기준 영상으로 잡고 사용자에게 기준 영상과 같이 촬영을 유도하게 되면 모바일 단말기의 3차원 방위각 정보(a)를 얻게 되고, 인식 성공 시, 인식된 피사체(대상 물체)의 크기 값을 3차원 방위각 정보(a)를 참고하여 기준 영상에서 피사체가 가지는 피사체 크기와의 상관관계를 판단하고 피사체와의 거리를 역계산 할 수 있게 된다. 그 결과 최종적으로 근사적인 모바일 단말기의 피사체 사이의 거리(d) 값을 구할 수 있게 된다.One image existing in the database has a three-dimensional azimuth angle a 'and a specific distance value d'. As a process for setting the correction value, one image is regarded as a reference image, Dimensional azimuth information (a) of the mobile terminal is obtained, and when the recognition is successful, the size value of the recognized object (object) is referred to as the three-dimensional azimuth information (a) It is possible to determine the correlation with the size of the object and calculate the distance to the object inversely. As a result, the approximate distance d between the objects of the mobile terminal can be obtained.

기준 영상의 3차원 방위각(a')과 구해진 근사적인 거리 값(d)으로, 사용자 특성에 따른 인식대상물체와의 거리(l)과 사용자가 모바일 단말기를 들고 있는 높이(h) 또한 대략적으로 산출해 낼 수 있게 되는데, 이 값들은 사용자의 개인 특성과 행동 습성을 반영하여 데이터베이스와의 상관관계를 고려한 3차원 방위각 보정값을 생성하는 데 사용된다. The distance l between the three-dimensional azimuth angle a 'of the reference image and the approximate distance value d obtained by the user characteristic and the height h of the user holding the mobile terminal are also roughly calculated These values are used to generate a 3D azimuth correction value that takes into account the correlation with the database, reflecting the user's personal characteristics and behavioral habits.

모바일 단말기가 획득하는 3차원 방위각(a)과 데이터베이스 내의 영상의 3차원 방위각(a')과의 비교를 위해 보정값 추출 과정은 1회에 한하여 이루어지며, 이후에는 보정값을 통한 조정을 통해 데이터베이스 내 영상의 3차원 방위각 정보(a')와 단말기에서 획득되는 3차원 방위각 정보(a)와의 비교가 계속적으로 이뤄지게 된다.In order to compare the three-dimensional azimuth angle a obtained by the mobile terminal with the three-dimensional azimuth angle a 'of the image in the database, the correction value extraction process is performed only once, The comparison between the three-dimensional azimuth information a 'of the inner image and the three-dimensional azimuth information a obtained at the terminal is continuously performed.

다시, 도 3을 다시 참조하면, 사용자가 카메라로 객체를 촬영한 단계 후에는, 위에 설명한 바와 같이, 촬영된 객체에 대한 영상이 기준 영상을 참조로 하여 인식에 성공했을 시, 사용자의 모바일 단말기의 카메라 모듈을 객체를 바라보는 3차원 방위각 정보를 참조로 하고, 기준 영상 내의 객체의 크기와 사용자에 의해 촬영된 객체의 크기의 비교를 통하여, 사용자의 모바일 단말기의 카메라 모듈로부터 촬영한 객체와의 거리를 계산하는 단계(S303)를 수행한다.Referring again to FIG. 3, when the user has succeeded in recognizing the image of the photographed object with reference to the reference image after the step of photographing the object with the camera, as described above, By comparing the size of the object in the reference image and the size of the object photographed by the user with reference to the three-dimensional azimuth angle information for viewing the camera module, the distance from the object photographed from the camera module of the user's mobile terminal (Step S303).

그런 다음, 3차원 방위각 정보 및 상용자의 모바일 단말기의 카메라 모듈로부터 상기 객체와의 거리 값을 참조로 하여, 사용자가 모바일 단말기를 들고 있는 높이 및 사용자 특성에 따른 사용자의 모바일 단말기의 카메라 모듈로부터 상기 객체까지의 지면 상에 투영된 거리를 산출하고 이를 참조로 하여 보정 기준값을 산출한다(S304). 이 보정 기준값은 1회에 한하여 획득된다.Then, from the camera module of the mobile terminal of the user according to the height of the user holding the mobile terminal and the user characteristic, the three-dimensional azimuth information and the distance value from the camera module of the user's mobile terminal are referred to, And calculates a correction reference value with reference to the distance (S304). This correction reference value is obtained only once.

그리고 나서, 보정 기준값을 통해 3차원 방위각을 보정하고, 보정된 3차원 방위각과 사용자의 모바일 단말기의 카메라 모듈을 통해 입력되는 카메라 영상을 페어링한다(S305).Then, the 3D azimuth angle is corrected through the correction reference value, and the corrected 3D azimuth is paired with the camera image input through the camera module of the user's mobile terminal (S305).

그리고 증강 현실 제공을 위한 데이터베이스 상에서 사용자 모바일 단말기의 보정된 3차원 방위각 정보와 유사한 방위각 정보에 대응하는 하나 이상의 비교 대상 영상을 획득한다(S306). 데이터베이스에 저장된 3차원 방위각 정보와 모바일 단말기에서 획득되는 3차원 방위각 정보의 비교는 실 입력영상과 데이터베이스 내의 영상들 중 유사 영상을 찾을 때까지 계속해서 이루어지게 된다.Then, at least one comparison object image corresponding to the azimuth information similar to the corrected three-dimensional azimuth information of the user mobile terminal is acquired on the database for providing the augmented reality (S306). The comparison between the 3D azimuthal information stored in the database and the 3D azimuthal information obtained from the mobile terminal continues until a similar one of the real input image and the images in the database is found.

그런 다음, 데이터베이스의 비교 대상 영상과 카메라 영상이 소정의 유사도 이상인 것으로 판단되면, 상기 특정 영상에 대응되어 저장되어 있는 정보를 사용하여 상기 모바일 단말기의 카메라 모듈을 통해 입력되는 영상을 인식하도록 한다(S307).Then, if it is determined that the comparison target image and the camera image of the database are equal to or greater than a predetermined degree of similarity, the image input through the camera module of the mobile terminal is recognized using information stored corresponding to the specific image (S307 ).

상기 S307 단계는 구체적으로, 모바일 단말기의 카메라 모듈을 통해 입력되는 영상으로부터 특징 정보를 추출하는 단계, 사용자 모바일 단말기의 영상으로부터 추출된 특징 정보와 소정의 데이터베이스에 저장되어 있는 영상의 특징 정보들을 소정의 영상 인식 기술을 통하여 비교하는 단계, 및 데이터베이스에 저장되어 있는 영상들 중 특정 영상과 상기 사용자 모바일 단말기의 카메라 모듈을 통해 입력되는 영상이 소정의 유사도 이상인 것으로 판단되면, 상기 특정 영상에 대응되어 저장되어 있는 정보를 사용하여 상기 사용자 모바일 단말기의 카메라 모듈을 통해 입력되는 영상을 인식하는 단계를 포함한다.Specifically, the step S307 may include extracting the feature information from the image input through the camera module of the mobile terminal, extracting the feature information extracted from the image of the user mobile terminal and the feature information of the image stored in the predetermined database, And comparing the specific image among the images stored in the database and the image input through the camera module of the user mobile terminal with the predetermined degree of similarity or more, And recognizing an image input through the camera module of the user mobile terminal using the information.

그리고 사용자 모바일 단말기의 디스플레이 장치에 상기 카메라 모듈을 통해 입력되는 영상에 상기 인식된 특정 비교 대상 영상에 대응되어 저장되어 있는 정보를 합성하여 표시한다(S308).In operation S308, the information input through the camera module to the display device of the user's mobile terminal is displayed by combining the information stored in association with the recognized specific comparison image.

도 6은 본 발명에 따른 스마트 센서를 이용한 영상 인식 및 증강 현실을 제공하는 단말 장치의 구성을 나타내는 개략도이다.6 is a schematic diagram illustrating a configuration of a terminal device for providing an image enhancement and augmented reality using a smart sensor according to the present invention.

도 6을 참조하면, 본 발명에 따른 단말 장치(200)는 카메라(201), 스마트 센서(202), 보정 기준값 산출부(203), 시야각 보정부(204), 센서신호 처리부(205), 비교 대상 영상획득부(206), 증강 현실 제공부(207) 및 합성 영상 생성부(211)를 포함한다.6, a terminal device 200 according to the present invention includes a camera 201, a smart sensor 202, a correction reference value calculation unit 203, a viewing angle correction unit 204, a sensor signal processing unit 205, An augmented reality providing unit 207, and a synthesized image generating unit 211. The augmented reality providing unit 207 and the augmented reality providing unit 207 are the same.

스마트 센서(202)는 가속도 센서, 각속도 센서, 지자기 센서, 기울기 센서 중 하나 이상을 포함한다.The smart sensor 202 includes at least one of an acceleration sensor, an angular velocity sensor, a geomagnetic sensor, and a tilt sensor.

보정 기준값 산출부(203)는, 증강 현실 서비스를 제공 받기 원하는 소정의 객체가 있을 시, 사용자로 하여금 상기 객체에 대한 기준 영상을 참조로 하여 상기 객체를 상기 기준 영상처럼 촬영하도록 유도하여 상기 객체에 대한 영상이 촬영되면, 상기 촬영된 객체에 대한 영상이 상기 기준 영상을 참조로 하여 인식에 성공했을 시, 상기 사용자의 모바일 단말기의 카메라 모듈이 상기 객체를 바라보는 3차원 방위각 정보를 참조로 하고, 상기 기준 영상 내의 객체의 크기와 상기 사용자에 의해 촬영된 상기 객체의 크기의 비교를 통하여, 상기 사용자의 모바일 단말기의 카메라 모듈로부터 상기 촬영한 객체와의 거리를 계산하는 기능을 한다. 또한 이 보정 기준값 산출부(203)는, 상기 3차원 방위각 정보 및 상기 사용자의 모바일 단말기의 카메라 모듈로부터 상기 객체와의 거리 값을 참조로 하여, 상기 사용자가 상기 모바일 단말기를 들고 있는 높이 및 상기 사용자 특성에 따른 상기 사용자의 모바일 단말기의 카메라 모듈로부터 상기 객체까지의 지면 상에 투영된 거리를 산출하고, 이를 참조로 하여 보정 기준값을 획득하는 기능을 한다.When there is a predetermined object desired to receive the augmented reality service, the correction reference value calculation unit 203 induces the user to photograph the object as the reference image with reference to the reference image for the object, When the image of the captured object is recognized with reference to the reference image, the camera module of the user's mobile terminal refers to the three-dimensional azimuth information that the user views the object, And calculates a distance from the camera module of the user's mobile terminal to the photographed object through comparison of the size of the object in the reference image and the size of the object photographed by the user. The correction reference value calculating unit 203 calculates a reference value of the user based on the three-dimensional azimuth information and the distance between the user and the camera module of the mobile terminal, The distance projected on the ground from the camera module of the user's mobile terminal to the object according to the characteristics is calculated and the correction reference value is acquired with reference to the distance.

이때, 보정 기준값 산출부(203)는 1회에 한하여 상기 보정 기준값을 획득한다.At this time, the correction reference value calculation unit 203 acquires the correction reference value only once.

시야각 보정부(204)는 보정 기준값을 통해 상기 3차원 방위각을 보정하는 기능을 한다.The viewing angle correcting section 204 corrects the three-dimensional azimuth angle based on the correction reference value.

센서신호 처리부(205)는 보정된 3차원 방위각과 상기 사용자의 모바일 단말기의 카메라 모듈을 통해 입력되는 카메라 영상을 페어링하는 하는 기능을 한다.The sensor signal processing unit 205 performs a function of pairing the corrected three-dimensional azimuth and the camera image input through the camera module of the user's mobile terminal.

비교 대상 영상 획득부(206)는 증강 현실 제공을 위한 데이터베이스(300) 상에서 상기 사용자 모바일 단말기의 보정된 3차원 방위각 정보와 유사한 방위각 정보에 대응하는 적어도 하나의 비교 대상 영상을 획득하는 기능을 한다. 비교 대상 영상 획득부(206)에서의 데이터베이스에 저장된 3차원 방위각 정보와 모바일 단말기에서 획득되는 3차원 방위각 정보의 비교는 실 입력영상과 데이터베이스 내의 영상들 중 유사 영상을 찾을 때까지 계속해서 이루어진다.The comparison object image obtaining unit 206 obtains at least one comparison object image corresponding to the azimuth information similar to the corrected three-dimensional azimuth information of the user mobile terminal on the database 300 for providing the augmented reality. The comparison of the three-dimensional azimuth information stored in the database and the three-dimensional azimuth information obtained from the mobile terminal is continuously performed until a similar one of the real input image and the images in the database is found.

증강 현실 제공부(207)는 영상 특징 추출부(208), 영상 특징 비교부(209) 및 유사도 판단부(210)를 포함하며, 데이터베이스(300)의 비교 대상 영상과 상기 카메라 영상이 소정의 유사도 이상인 것으로 판단되면, 상기 비교 대상 특정 영상에 대응되어 저장되어 있는 정보를 사용하여 상기 모바일 단말기의 카메라 모듈을 통해 입력되는 영상을 인식하도록 하는 기능을 한다. The augmented reality providing unit 207 includes a video feature extracting unit 208, a video feature comparing unit 209 and a similarity determining unit 210. The augmented reality providing unit 207 compares the comparison video of the database 300 with the camera video, It is possible to recognize an image input through the camera module of the mobile terminal using the information stored corresponding to the specific image to be compared.

영상 특징 추출부(208)는 사용자 모바일 단말기의 카메라 모듈을 통해 입력되는 영상으로부터 특징이 되는 영상을 추출하여 특징 정보로 변환하는 기능을 하고, 영상 특징 비교부(209)는 사용자 모바일 단말기의 영상의 특징 정보와 소정의 데이터베이스에 저장되어 있는 영상의 특징 정보들을 소정의 영상 인식 기술을 통하여 비교하는 기능을 하며, 유사도 판단부(210)는 데이터베이스(300)에 저장되어 있는 영상들 중 특정 영상과 상기 모바일 단말기의 카메라 모듈을 통해 입력되는 영상이 소정의 유사도 이상인 것으로 판단되면, 상기 특정 영상에 대응되어 저장되어 있는 정보를 사용하여 상기 모바일 단말기의 카메라 모듈을 통해 입력되는 영상을 인식하는 기능을 한다.The image feature extracting unit 208 extracts a feature image from the image input through the camera module of the user mobile terminal and converts the feature image into feature information. The image feature comparing unit 209 compares the image of the user mobile terminal The similarity determination unit 210 may compare the characteristic information of the image stored in the database 300 with the characteristic information of the image stored in the database 300, If the image input through the camera module of the mobile terminal is determined to be equal to or greater than a predetermined degree of similarity, the image input through the camera module of the mobile terminal is recognized using information stored corresponding to the specific image.

또한, 합성 영상 생성부(211)는 사용자 모바일 단말기의 디스플레이 장치에 상기 카메라 모듈을 통해 입력되는 영상에 상기 인식된 특정 비교 대상 영상에 대응되어 저장되어 있는 정보를 합성하여 표시하는 기능을 한다. In addition, the composite image generation unit 211 synthesizes and displays information stored in association with the recognized specific comparison image on the image input through the camera module to the display device of the user mobile terminal.

본 발명에 따라 제안된 증강 현실 제공을 위한 단말 장치(200)는 카메라(201)를 통해 획득된 실제 영상과 모바일 단말기에 포함되는 스마트센서(202) 값을 통해 획득된 센서값에 대해서 보정과정과 센서값 신호처리과정을 통하여 보정된 3차원 방위각 정보를 페어링한다. 이 과정에서, 보정 기준값 산출부(203)에서 최초 기준영상 촬영과정 시 획득되는 센서값 분석 및 기준 영상과의 객체 크기 비교를 통해 단말기와 촬영한 객체 사이의 거리를 계산하고 객체에서 사용자(모바일 단말기)를 향한 시야각(3차원 방위각) 보정 기준값을 획득한다. 이후 시야각 보정부(204)에서는 이 보정 기준값을 통해 3차원 방위각을 보정하고, 센서 신호 처리부(205)가 보정된 3차원 방위각과 입력되는 카메라 영상을 페어링하게 된다. The terminal device 200 for providing the augmented reality proposed in accordance with the present invention performs a calibration process on sensor values obtained through the actual image obtained through the camera 201 and the smart sensor 202 included in the mobile terminal And the corrected three-dimensional azimuth information is paired through the sensor value signal processing process. In this process, the correction reference value calculating unit 203 calculates the distance between the terminal and the photographed object through the sensor value analysis obtained in the initial reference image photographing process and the object size comparison with the reference image, (Three-dimensional azimuth angle) correction reference value for the three-dimensional viewpoint. Thereafter, the viewing angle correcting section 204 corrects the three-dimensional azimuth using this correction reference value, and the sensor signal processing section 205 pairs the corrected three-dimensional azimuth and the input camera image.

신호처리과정을 통하여 보정된 3차원 방위각 정보는 데이터베이스(300)의 접근 요청을 하게 되고, 데이터베이스(300)에는 이에 상응하는 특정 데이터베이스 영상 그룹(즉, 데이터베이스 상에서 상기 사용자 모바일 단말기의 보정된 3차원 방위각 정보와 유사한 방위각 정보에 대응하는 영상이나 영상 그룹)을 회송한다. 이때, 비교 대상 영상 획득부(206) 에서 수신된 정보를 통하여 대량의 데이터베이스에서 관련이 있는 특정 데이터베이스 영상을 빠르게 색인할 수 있고, 이 과정을 통하여 데이터통신 경량화 및 비교과정 단순화시켜 전체 증강현실 시스템의 가속화가 이루어진다. Dimensional azimuth information corrected through the signal processing process makes an access request of the database 300 and the database 300 stores a corresponding specific database image group (i.e., a corrected three-dimensional azimuth angle And a video or image group corresponding to the azimuth information similar to the information). At this time, a specific database image related to a large amount of databases can be quickly indexed through the information received by the comparison object image obtaining unit 206, and through the process, lightening of the data communication and simplification of the comparison process are performed, Acceleration is achieved.

3차원 방위각 정보와 페어링 된 실 영상정보는 영상 특징 추출부(208)에서 특징정보로 변환되며, 변환된 실 영상의 특징정보는 영상 특징 비교부(209)에서 수신된 특정 데이터베이스 내의 영상에 대해서 비교과정을 거쳐 특징 일치 여부를 판단하게 된다.The real image information paired with the 3D azimuth information is converted into feature information by the image feature extraction unit 208. The feature information of the converted real image is compared with the image in the specific database received by the image feature comparison unit 209 And then the feature is matched.

실 입력 영상의 특징이 호출 된 데이터베이스 내의 영상의 특징들과 일치할 경우 합성 영상 생성부(211)에서는 실 영상과 증강 데이터가 합성 된 증강합성영상을 생성하게 되고, 이후 디스플레이를 통하여 사용자에게 증강정보가 제공 된다.If the characteristic of the real input image coincides with the characteristics of the image in the called database, the composite image generating unit 211 generates an enhanced composite image in which the real image and the augmented data are synthesized. Then, Is provided.

이 같이 제안된 방법과 단말 장치는 카메라를 통해서 획득 된 입력 영상 정보만을 이용하는 것이 아니라, 촬영 시 획득된 스마트센서의 값을 판단 조정 신호 처리하여 생성된 색인 값을 영상정보와 페어링하고, 이를 통하여 데이터베이스상의 해당 데이터베이스를 호출하여 이를 비교함으로써 데이터 통신량을 획기적으로 감시시킬 수 있다. 특징 비교과정에서도 해당사항이 있는 특정 비교대상만을 호출하여 비교함으로 비교대상 축소와 계산량의 감소가 이루어질 수 있다.The proposed method and the terminal device do not use only the input image information obtained through the camera, but pair the index value generated by judging and adjusting the value of the smart sensor acquired at the time of photographing with the image information, It is possible to remarkably monitor the amount of data traffic by calling the corresponding database on the network. In the feature comparison process, it is possible to reduce the comparison object and decrease the calculation amount by calling only the specific comparison object having the corresponding item.

이와 같이 본 발명에 따른 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 방법 및 단말 장치는 스마트센서를 포함하는 모바일 단말기 환경에서 증강 현실 시스템을 제공함에 있어, 데이터통신 경량화, 처리과정 간소화를 통해 전체적인 처리과정을 개선시킬 수 있으며, 이 가속화 과정을 통하여 처리속도를 향상 시켜 실시간 처리를 용이하게 만드는 효과를 얻을 수 있게 된다.As described above, in the method for providing the augmented reality and the augmented reality using the smart sensor according to the present invention, in providing the augmented reality system in a mobile terminal environment including a smart sensor, it is possible to reduce the data communication, It is possible to improve the processing speed through the acceleration process, and to obtain the effect of facilitating real-time processing.

한편, 증강현실 제공을 위해 비교 과정을 거치는 입력 영상은 모바일 단말기에 포함되어 있는 카메라를 통해 획득하는 단 컷 영상과, 실시간 영상뿐만 아니라 모바일 단말기에 미리 저장 된 정지 영상과 동영상의 형태로 입력 받을 수도 있다.On the other hand, an input image that undergoes a comparison process in order to provide an augmented reality may be input in a form of a short cut image acquired through a camera included in the mobile terminal and a still image and a video stored in advance in the mobile terminal have.

합성 영상 생성부(211)와 디스플레이 표시는 간단한 구조 변경을 통해 증강 정보를 영상 형태 이외에도 다양한 멀티미디어(동영상, 음성안내, 오디오, 하이퍼 링크 연결 등) 환경을 제공하는 형태로 변경이 가능할 것이다. The composite image generation unit 211 and the display display can be modified to provide a variety of multimedia (moving image, voice guidance, audio, hyperlink connection, etc.) environment in addition to the image form through a simple structure change.

이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 추천한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 추천한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 추천한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 추천한 것일 수도 있다. 컴퓨터 판독 추천한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The embodiments of the present invention described above can be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, either singly or in combination. The program instructions recorded on the computer-readable recording medium may be those specially designed and constructed for the present invention or may be those recommended for use by those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto- optical media such as floptical disks, optical media), and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for performing the processing according to the present invention, and vice versa.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, Those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be construed as being limited to the above-described embodiments, and all of the equivalents or equivalents of the claims, as well as the following claims, I will say.

Claims (13)

(a) 증강 현실 서비스를 제공 받기 원하는 소정의 객체가 있을 시, 사용자로 하여금 상기 객체에 대한 기준 영상을 참조로 하여 상기 객체를 상기 기준 영상처럼 촬영하도록 유도하는 단계;
(b) 상기 촬영된 객체에 대한 영상이 상기 기준 영상을 참조로 하여 인식에 성공했을 시, 상기 사용자의 모바일 단말기의 카메라 모듈이 상기 객체를 바라보는 3차원 방위각 정보를 참조로 하고, 상기 기준 영상 내의 객체의 크기와 상기 사용자에 의해 촬영된 상기 객체의 크기의 비교를 통하여, 상기 사용자의 모바일 단말기의 카메라 모듈로부터 상기 촬영한 객체와의 거리를 계산하는 단계;
(c) 상기 3차원 방위각 정보 및 상기 사용자의 모바일 단말기의 카메라 모듈로부터 상기 객체와의 거리 값을 참조로 하여, 상기 사용자가 상기 모바일 단말기를 들고 있는 높이 및 상기 사용자 특성에 따른 상기 사용자의 모바일 단말기의 카메라 모듈로부터 상기 객체까지의 지면 상에 투영된 거리를 산출하고, 이를 참조로 하여 보정 기준값을 획득하는 단계;
(d) 상기 보정 기준값을 통해 상기 3차원 방위각을 보정하고, 상기 보정된 3차원 방위각과 상기 사용자의 모바일 단말기의 카메라 모듈을 통해 입력되는 카메라 영상을 페어링하는 단계;
(e) 증강 현실 제공을 위한 데이터베이스 상에서 상기 사용자 모바일 단말기의 보정된 3차원 방위각 정보와 유사한 방위각 정보에 대응하는 적어도 하나의 비교 대상 영상을 획득하는 단계;
(f) 상기 데이터베이스의 비교 대상 영상과 상기 카메라 영상이 소정의 유사도 이상인 것으로 판단되면, 상기 특정 비교 대상 영상에 대응되어 저장되어 있는 정보를 사용하여 상기 모바일 단말기의 카메라 모듈을 통해 입력되는 영상을 인식하도록 하는 단계;
를 포함하는 것을 특징으로 하는 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 방법.
(a) when a predetermined object desired to receive an augmented reality service is present, inducing a user to photograph the object as the reference image with reference to a reference image for the object;
(b) when the image of the photographed object is successfully recognized with reference to the reference image, the camera module of the user's mobile terminal refers to the three-dimensional azimuth information that the user views the object, Calculating a distance from the camera module of the mobile terminal of the user to the photographed object through comparison of the size of the object within the user and the size of the object photographed by the user;
(c) a height of the user holding the mobile terminal with reference to the three-dimensional azimuth angle information and a distance value of the user from the camera module of the mobile terminal to the object, Calculating a projection distance on a ground plane from the camera module of the camera module to the object and acquiring a correction reference value with reference to the distance;
(d) correcting the 3D azimuth using the correction reference value, and pairing the corrected 3D azimuth with a camera image input through the camera module of the user's mobile terminal;
(e) obtaining at least one comparison object image corresponding to azimuth information similar to the corrected three-dimensional azimuth information of the user mobile terminal on a database for providing an augmented reality;
(f) if an image to be input through the camera module of the mobile terminal is recognized using the information stored in correspondence with the specific comparison object image, if it is determined that the comparison object image and the camera image of the database are equal to or greater than a predetermined similarity degree ;
The method of claim 1, further comprising:
제 1 항에 있어서,
상기 스마트 센서는,
가속도 센서, 각속도 센서, 지자기 센서, 기울기 센서 중 하나 이상을 포함하는 것을 특징으로 하는 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 방법.
The method according to claim 1,
The smart sensor includes:
An acceleration sensor, an angular velocity sensor, a geomagnetic sensor, and a tilt sensor.
제 1 항에 있어서,
상기 (f) 단계는,
(f1) 상기 사용자 모바일 단말기의 카메라 모듈을 통해 입력되는 영상으로부터 특징 정보를 추출하는 단계;
(f2) 상기 사용자 모바일 단말기의 영상으로부터 추출된 특징 정보와 소정의 데이터베이스에 저장되어 있는 영상의 특징 정보들을 소정의 영상 인식 기술을 통하여 비교하는 단계; 및
(f3) 상기 데이터베이스에 저장되어 있는 영상들 중 특정 영상과 상기 사용자 모바일 단말기의 카메라 모듈을 통해 입력되는 영상이 소정의 유사도 이상인 것으로 판단되면, 상기 특정 영상에 대응되어 저장되어 있는 정보를 사용하여 상기 사용자 모바일 단말기의 카메라 모듈을 통해 입력되는 영상을 인식하는 단계
를 포함하는 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 방법.
The method according to claim 1,
The step (f)
(f1) extracting feature information from an image input through a camera module of the user mobile terminal;
(f2) comparing feature information extracted from an image of the user mobile terminal and feature information of an image stored in a predetermined database through a predetermined image recognition technique; And
(f3) if it is determined that the specific image among the images stored in the database and the image input through the camera module of the user mobile terminal are equal to or more than a predetermined degree of similarity, Recognizing an image input through the camera module of the user mobile terminal
A method for providing an image recognition and augmented reality using a smart sensor.
제 1 항에 있어서,
상기 (c) 단계에서,
상기 보정 기준값은 1회에 한하여 획득하는 것을 특징으로 하는 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 방법.
The method according to claim 1,
In the step (c)
Wherein the correction reference value is acquired only once.
제 1 항에 있어서,
상기 데이터베이스에 저장된 3차원 방위각 정보와 상기 모바일 단말기에서 획득되는 3차원 방위각 정보의 비교가 계속적으로 이루어지는 것을 특징으로 하는 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 방법.
The method according to claim 1,
And comparing the 3D azimuth information stored in the database with the 3D azimuth information acquired by the mobile terminal.
제 1 항에 있어서,
(g) 상기 사용자 모바일 단말기의 디스플레이 장치에 상기 카메라 모듈을 통해 입력되는 영상에 상기 인식된 특정 비교 대상 영상에 대응되어 저장되어 있는 정보를 합성하여 표시하는 단계;를 더 포함하는 것을 특징으로 하는 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 방법.
The method according to claim 1,
(g) synthesizing and displaying information, which is stored in association with the recognized specific comparison object image, on the image input through the camera module to the display device of the user mobile terminal, (Image Recognition and Augmented Reality Method Using Sensor).
증강 현실 서비스를 제공 받기 원하는 소정의 객체가 있을 시, 사용자로 하여금 상기 객체에 대한 기준 영상을 참조로 하여 상기 객체를 상기 기준 영상처럼 촬영하도록 유도하여 상기 객체에 대한 영상이 촬영되면, 상기 촬영된 객체에 대한 영상이 상기 기준 영상을 참조로 하여 인식에 성공했을 시, 상기 사용자의 모바일 단말기의 카메라 모듈이 상기 객체를 바라보는 3차원 방위각 정보를 참조로 하고, 상기 기준 영상 내의 객체의 크기와 상기 사용자에 의해 촬영된 상기 객체의 크기의 비교를 통하여, 상기 사용자의 모바일 단말기의 카메라 모듈로부터 상기 촬영한 객체와의 거리를 계산하고, 상기 3차원 방위각 정보 및 상기 사용자의 모바일 단말기의 카메라 모듈로부터 상기 객체와의 거리 값을 참조로 하여, 상기 사용자가 상기 모바일 단말기를 들고 있는 높이 및 상기 사용자 특성에 따른 상기 사용자의 모바일 단말기의 카메라 모듈로부터 상기 객체까지의 지면 상에 투영된 거리를 산출하고, 이를 참조로 하여 보정 기준값을 획득하는 보정 기준값 산출부;
상기 보정 기준값을 통해 상기 3차원 방위각을 보정하기 위한 시야각 보정부;
상기 보정된 3차원 방위각과 상기 사용자의 모바일 단말기의 카메라 모듈을 통해 입력되는 카메라 영상을 페어링하는 센서신호 처리부;
증강 현실 제공을 위한 데이터베이스 상에서 상기 사용자 모바일 단말기의 보정된 3차원 방위각 정보와 유사한 방위각 정보에 대응하는 적어도 하나의 비교 대상 영상을 획득하는 비교 대상 영상 획득부; 및
상기 데이터베이스의 비교 대상 영상과 상기 카메라 영상이 소정의 유사도 이상인 것으로 판단되면, 상기 비교 대상 특정 영상에 대응되어 저장되어 있는 정보를 사용하여 상기 모바일 단말기의 카메라 모듈을 통해 입력되는 영상을 인식하도록 하는 증강 현실 제공부;
를 포함하는 것을 특징으로 하는 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 단말 장치.
When there is a predetermined object desired to receive the augmented reality service, the user is guided to shoot the object as the reference image with reference to the reference image for the object, and when the image for the object is taken, When the image of the object is successfully recognized with reference to the reference image, the camera module of the user's mobile terminal refers to the three-dimensional azimuth angle information that the user views the object, The method comprising the steps of: calculating a distance from the camera module of the mobile terminal of the user to the photographed object through comparison of the size of the object photographed by the user; And the distance value to the object, A correction reference value calculation unit for calculating a distance projected on the ground between the camera module of the mobile terminal of the user and the object according to the user characteristics and acquiring a correction reference value with reference thereto;
A viewing angle correcting unit for correcting the 3D azimuth through the correction reference value;
A sensor signal processing unit for pairing the corrected three-dimensional azimuth angle with a camera image input through a camera module of the user's mobile terminal;
A comparison object image acquiring unit for acquiring at least one comparison object image corresponding to azimuth information similar to the corrected three-dimensional azimuth information of the user mobile terminal on a database for providing an augmented reality; And
And a controller for recognizing an image input through the camera module of the mobile terminal using the information stored in correspondence with the comparison target image if it is determined that the comparison target image and the camera image of the database are equal to or greater than a predetermined degree of similarity Reality offering;
And a terminal for providing the image recognition and augmented reality using the smart sensor.
제 7 항에 있어서,
상기 스마트 센서는,
가속도 센서, 각속도 센서, 지자기 센서, 기울기 센서 중 하나 이상을 포함하는 것을 특징으로 하는 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 단말 장치.
8. The method of claim 7,
The smart sensor includes:
An acceleration sensor, an angular velocity sensor, a geomagnetic sensor, and a tilt sensor.
제 7 항에 있어서,
상기 증강 현실 제공부는,
상기 사용자 모바일 단말기의 카메라 모듈을 통해 입력되는 영상으로부터 특징이 되는 영상을 추출하여 특징 정보로 변환하기 위한 영상 특징 추출부;
상기 사용자 모바일 단말기의 영상의 특징 정보와 소정의 데이터베이스에 저장되어 있는 영상의 특징 정보들을 소정의 영상 인식 기술을 통하여 비교하기 위한 영상 특징 비교부; 및
상기 데이터베이스에 저장되어 있는 영상들 중 특정 영상과 상기 모바일 단말기의 카메라 모듈을 통해 입력되는 영상이 소정의 유사도 이상인 것으로 판단되면, 상기 특정 영상에 대응되어 저장되어 있는 정보를 사용하여 상기 모바일 단말기의 카메라 모듈을 통해 입력되는 영상을 인식하기 위한 유사도 판단부;
를 포함하는 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 단말 장치.
8. The method of claim 7,
Wherein the augmented reality providing unit comprises:
An image feature extraction unit for extracting a feature image from an image input through the camera module of the user mobile terminal and converting the feature image into feature information;
An image feature comparing unit for comparing feature information of an image of the user mobile terminal with feature information of an image stored in a predetermined database through a predetermined image recognition technique; And
If it is determined that the specific image among the images stored in the database and the image input through the camera module of the mobile terminal are equal to or greater than a predetermined degree of similarity, A similarity determination unit for recognizing an image input through the module;
And a terminal device for providing the image recognition and augmented reality using the smart sensor.
제 7 항에 있어서,
상기 보정 기준값 산출부는, 1회에 한하여 상기 보정 기준값을 획득하는 것을 특징으로 하는 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 단말 장치.
8. The method of claim 7,
Wherein the correction reference value calculation unit obtains the correction reference value only once.
제 7 항에 있어서,
상기 데이터베이스에 저장된 3차원 방위각 정보와 상기 모바일 단말기에서 획득되는 3차원 방위각 정보의 비교가 계속적으로 이루어지는 것을 특징으로 하는 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 단말 장치.
8. The method of claim 7,
Wherein the comparison between the 3D azimuth information stored in the database and the 3D azimuth information obtained from the mobile terminal is continuously performed.
제 7 항에 있어서,
상기 사용자 모바일 단말기의 디스플레이 장치에 상기 카메라 모듈을 통해 입력되는 영상에 상기 인식된 특정 비교 대상 영상에 대응되어 저장되어 있는 정보를 합성하여 표시하는 합성 영상 생성부;를 더 포함하는 것을 특징으로 하는 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 단말 장치.
8. The method of claim 7,
And a composite image generation unit for synthesizing and displaying information stored in association with the recognized specific comparison image on an image input through the camera module to a display device of the user mobile terminal, Image - recognition and augmented reality - providing terminal using sensors.
제 1 항 내지 제 6 항 중 어느 한 항에 따른 방법에 따라 스마트 센서를 이용한 영상 인식 및 증강 현실 제공 방법을 관리 및 제공하기 위한 컴퓨터 프로그램을 기록한 컴퓨터 판단 가능한 기록 매체.A computer-readable recording medium recording a computer program for managing and providing image recognition and augmented reality providing method using a smart sensor according to any one of claims 1 to 6.
KR1020130059352A 2013-05-24 2013-05-24 Mobile termianl, computer-readable recording medium and method for image recognation and implementing augmented reality using smart sensors KR20140137980A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130059352A KR20140137980A (en) 2013-05-24 2013-05-24 Mobile termianl, computer-readable recording medium and method for image recognation and implementing augmented reality using smart sensors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130059352A KR20140137980A (en) 2013-05-24 2013-05-24 Mobile termianl, computer-readable recording medium and method for image recognation and implementing augmented reality using smart sensors

Publications (1)

Publication Number Publication Date
KR20140137980A true KR20140137980A (en) 2014-12-03

Family

ID=52457638

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130059352A KR20140137980A (en) 2013-05-24 2013-05-24 Mobile termianl, computer-readable recording medium and method for image recognation and implementing augmented reality using smart sensors

Country Status (1)

Country Link
KR (1) KR20140137980A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190023906A (en) * 2017-08-30 2019-03-08 연세대학교 산학협력단 Augmented Reality Server and System and its Method, and Recording Medium thereof
KR20190112968A (en) * 2018-03-27 2019-10-08 남서울대학교 산학협력단 Method and program of x-ray simulation using augmented reality

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190023906A (en) * 2017-08-30 2019-03-08 연세대학교 산학협력단 Augmented Reality Server and System and its Method, and Recording Medium thereof
KR20190112968A (en) * 2018-03-27 2019-10-08 남서울대학교 산학협력단 Method and program of x-ray simulation using augmented reality

Similar Documents

Publication Publication Date Title
US11749025B2 (en) Eye pose identification using eye features
US10282913B2 (en) Markerless augmented reality (AR) system
JP6587435B2 (en) Image processing apparatus, information processing method, and program
US10535160B2 (en) Markerless augmented reality (AR) system
US9030408B2 (en) Multiple sensor gesture recognition
KR101874494B1 (en) Apparatus and method for calculating 3 dimensional position of feature points
WO2017041731A1 (en) Markerless multi-user multi-object augmented reality on mobile devices
JP7387202B2 (en) 3D face model generation method, apparatus, computer device and computer program
US9392248B2 (en) Dynamic POV composite 3D video system
CN116777994A (en) Estimating pose in 3D space
CN105654048A (en) Multi-visual-angle face comparison method
EP2842075A1 (en) Three-dimensional face recognition for mobile devices
US11146773B2 (en) Point cloud data communication system, point cloud data transmitting apparatus, and point cloud data transmission method
US20140192055A1 (en) Method and apparatus for displaying video on 3d map
JP2016530581A (en) INSITU generation of plane-specific feature targets
US11244145B2 (en) Information processing apparatus, information processing method, and recording medium
CN113393505B (en) Image registration method, visual positioning method, related device and equipment
JP2021530816A (en) Methods and devices for angle detection
CN112105983A (en) Enhanced visual ability
CN114690900A (en) Input identification method, equipment and storage medium in virtual scene
CN110245549A (en) Real-time face and object manipulation
KR20160046399A (en) Method and Apparatus for Generation Texture Map, and Database Generation Method
CN113870213A (en) Image display method, image display device, storage medium, and electronic apparatus
KR102215146B1 (en) Method, apparatus and computer program for providing interactive service using augmented reality and mixed reality
KR20140137980A (en) Mobile termianl, computer-readable recording medium and method for image recognation and implementing augmented reality using smart sensors

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid