KR101923177B1 - Appratus and method for providing augmented reality information based on user - Google Patents

Appratus and method for providing augmented reality information based on user Download PDF

Info

Publication number
KR101923177B1
KR101923177B1 KR1020120035065A KR20120035065A KR101923177B1 KR 101923177 B1 KR101923177 B1 KR 101923177B1 KR 1020120035065 A KR1020120035065 A KR 1020120035065A KR 20120035065 A KR20120035065 A KR 20120035065A KR 101923177 B1 KR101923177 B1 KR 101923177B1
Authority
KR
South Korea
Prior art keywords
image
user
augmented reality
face
information
Prior art date
Application number
KR1020120035065A
Other languages
Korean (ko)
Other versions
KR20130112578A (en
Inventor
나진희
김민철
손재식
윤영권
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120035065A priority Critical patent/KR101923177B1/en
Publication of KR20130112578A publication Critical patent/KR20130112578A/en
Application granted granted Critical
Publication of KR101923177B1 publication Critical patent/KR101923177B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 사용자 기반의 증강 현실(Augmented Reality: AR) 정보를 제공하는 방법을 구현한다. 이를 위해 본 발명은 이동 단말기에 서로 반대 방향으로 장착된 두 개의 카메라를 동시에 구동하여, 전면 카메라를 통한 사용자 얼굴 영상으로부터는 얼굴을 인식하여 사용자 정보를 획득하고, 후면 카메라를 통한 영상으로부터는 적어도 하나의 객체를 추출한 후, 상기 사용자 정보를 기반으로 그 객체에 대한 증강 현실 정보를 결정하여, 상기 결정된 증강 현실 정보를 상기 객체에 중첩시켜 표시하는 과정으로 이루어진다. 이때, 그 객체가 움직이는 경우에는 그 객체에 대한 특징점을 추출하여 그 특징점을 추적하고, 추적된 객체에 대해 증강 현실 정보를 중첩시킬 좌표를 계산하여, 그 좌표에 증강 현실 정보가 배치되도록 렌더링하는 과정이 추가된다. 이렇게 함으로써, 증강현실 서비스를 사용자의 정보에 따라 사용자에게 차별화하여 제공해 줄 수 있다. The present invention implements a method of providing user-based augmented reality (AR) information. To this end, the present invention drives two cameras mounted in opposite directions to each other in a mobile terminal at the same time, acquires user information by recognizing a face from a user's face image through a front camera, and acquires user information from at least one Determining augmented reality information for the object based on the user information, and superimposing the determined augmented reality information on the object and displaying the augmented reality information. At this time, when the object moves, a feature point of the object is extracted, the feature point is tracked, the coordinates for superimposing the augmented reality information on the tracked object are calculated, and the augmented reality information is arranged Is added. By doing so, the augmented reality service can be differentiated and provided to the user according to the information of the user.

Figure R1020120035065
Figure R1020120035065

Description

사용자 기반의 증강 현실 정보를 제공하기 위한 장치 및 방법{APPRATUS AND METHOD FOR PROVIDING AUGMENTED REALITY INFORMATION BASED ON USER}[0001] APPARATUS AND METHOD FOR PROVIDING AUGMENTED REALITY INFORMATION BASED ON USER [0002]

본 발명은 이동 단말기 및 이를 이용한 증강 현실 정보를 제공하기 위한 방법에 관한 것으로, 특히 이동 단말기에 장착된 카메라 기능을 이용하여 사용자 기반의 증강 현실 정보를 제공하기 위한 장치 및 방법에 관한 것이다.The present invention relates to a mobile terminal and a method for providing augmented reality information using the same, and more particularly, to an apparatus and method for providing user-based augmented reality information using a camera function installed in a mobile terminal.

최근 이동 단말기에서 제공하는 다양한 서비스 및 부가 기능들이 점차 확대되고, 그 중에서도 카메라 기능은 필수적인 기능으로 여겨지고 있다. 이러한 이동 단말기의 효용 가치를 높이고 사용자들의 다양한 욕구를 만족시키기 위해서 카메라를 구비한 이동 단말기와 이러한 이동 단말기의 다양한 서비스 및 부가 기능들을 접목시키는 활용이 필요하다. 이러한 활용의 한 예로써, 사용자에게 카메라 영상 내의 객체에 대한 각종 다양한 정보를 보여주는 방법이 있으며, 이를 위해 증강 현실(Augmented Reality: AR) 기술이 적용될 수 있다. 2. Description of the Related Art Recently, various services and additional functions provided by a mobile terminal have been gradually expanded. In order to increase the utility value of the mobile terminal and satisfy various needs of the users, it is necessary to utilize the mobile terminal having the camera and various services and additional functions of the mobile terminal. As an example of such utilization, there is a method of displaying various information about an object in a camera image to a user, and an Augmented Reality (AR) technique can be applied to this.

일반적으로, 증강 현실은 현실 세계를 바탕으로 사용자가 표현하고자 하는 가상 객체를 결합하는 것을 의미한다. 즉, 실제 환경에 가상의 사물을 결합하여 원래의 환경에 존재하는 물체인 것처럼 표현을 하는 것이다. 사용자의 카메라의 위치나 포즈가 변하거나 가상 객체를 입힐 현실 속의 객체가 움직이더라도 가상 객체를 오차없이 정확한 위치에 증강시켜야 하기 때문에 최근에는 실시간 영상 인식 기술이 많이 활용되는 추세이다. Generally, augmented reality means combining virtual objects that the user wants to express based on the real world. In other words, it combines a virtual object into a real environment and expresses it as if it exists in the original environment. Since the virtual object needs to be increased to the correct position without any error even if the position of the user's camera or the pose of the user changes or the virtual object is moved, the real-time image recognition technology is widely used.

기존의 증강 현실 서비스들은 이와 같은 마커 및 마커리스 인식 방법을 사용하여 현재 촬영 중인 카메라 영상(혹은 처리된 정보)과 미리 저장된 데이터베이스 영상(혹은 처리된 DB 정보)들을 비교함으로써 추출된 증강 정보를 카메라 영상 위에 증강하여 보여 주는 것을 기본으로 하고 있다. Conventional augmented reality services compare the camera image (or processed information) currently captured and the previously stored database image (or processed DB information) by using the marker and markerless recognition method, It is based on showing the reinforcement on the above.

이러한 증강 현실 방법은 서비스 제공자가 준비한 가상 객체 정보를 서비스를 제공받는 모든 사용자에게 동일하게 제공해 준다는 점에서 한계가 있다. 하지만, 사용자별로 서로 다른 가상 객체 정보를 제공할 수 있다면 사용자들에게 차별화된 다양한 증강 정보를 제공할 수 있을 것이다. 예를 들면, 영화 포스터를 인식하여 포스터 위에 영화 예고편을 정합하여 증강한다고 할 때, 사용자가 사용하는 언어에 대한 정보를 알고 있다면 사용자가 사용하는 언어로 된 자막을 함께 보여 주는 것이 가능할 것이다.This augmented reality method has a limit in that virtual object information prepared by the service provider is equally provided to all users who are provided with the service. However, if different virtual object information can be provided for each user, various enhancement information differentiated from the user can be provided. For example, if a movie poster is recognized and a movie trailer is matched to a poster on a poster, if the user knows information about the language used, it is possible to display subtitles in the language used by the user.

이와 같이 이동 단말기의 카메라 활용 방안을 다양화하기 위해 이동 단말기의 소프트웨어적인 부분을 개량하는 것이 요구된다. Thus, it is required to improve the software part of the mobile terminal in order to diversify the camera utilization plan of the mobile terminal.

따라서 본 발명은 이동 단말기에 장착된 카메라 기능을 이용하여 사용자 기반의 증강 현실 정보를 제공하기 위한 장치 및 방법을 제공한다. Accordingly, the present invention provides an apparatus and method for providing user-based augmented reality information using a camera function installed in a mobile terminal.

상기한 바를 달성하기 위한 본 발명은, 사용자 기반의 증강 현실 정보를 제공하기 위한 장치에 있어서, 사용자 얼굴을 촬영한 제1영상을 출력하는 제1영상 입력부와, 상기 제1영상 입력부와 반대 방향으로 촬영한 제2영상을 출력하는 제2영상 입력부와, 상기 제2영상을 표시하는 표시부와, 상기 제1영상으로부터 상기 사용자 얼굴을 인식하고, 상기 사용자 얼굴을 인식한 결과에 매칭되는 사용자 정보를 획득하는 제1영상 처리부와, 상기 제2영상 내의 적어도 하나의 객체를 추출하며, 상기 사용자 정보에 대응하는 상기 객체에 대한 증강 현실 정보를 획득하는 제2영상 처리부와, 상기 제2영상 내의 상기 객체에 상기 증강 현실 정보를 중첩시켜 상기 표시부 상에 표시하도록 제어하는 제어부를 포함함을 특징으로 한다. According to another aspect of the present invention, there is provided an apparatus for providing user-based augmented reality information, comprising: a first image input unit for outputting a first image of a user's face; A second image input unit for outputting a captured second image; a display unit for displaying the second image; and a display unit for recognizing the user face from the first image and acquiring user information matched with a result of recognizing the user face A second image processing unit for extracting at least one object in the second image and acquiring augmented reality information for the object corresponding to the user information; And a controller for superimposing the augmented reality information and displaying the augmented reality information on the display unit.

또한 본 발명은, 제1영상 입력부 및 제2영상 입력부를 구비한 이동 단말기에서 사용자 기반의 증강 현실 정보를 제공하기 위한 방법에 있어서, 증강 현실 서비스 어플리케이션이 실행되면, 상기 제1영상 입력부 및 상기 제2영상 입력부를 동시에 구동하는 과정과, 상기 제1영상 입력부를 통해 사용자 얼굴을 촬영한 제1영상을 입력받는 과정과, 상기 제1영상으로부터 상기 사용자 얼굴을 인식하고, 상기 사용자 얼굴을 인식한 결과에 매칭되는 사용자 정보를 획득하는 과정과, 상기 제2영상 입력부를 통해 상기 제1영상 입력부와 반대 방향으로 촬영한 제2영상을 입력받는 과정과, 상기 제2영상 내의 적어도 하나의 객체를 추출하며, 상기 사용자 정보에 대응하는 상기 객체에 대한 증강 현실 정보를 획득하는 과정과, 상기 제2영상 내의 상기 객체에 상기 증강 현실 정보를 중첩시켜 표시하는 과정을 포함함을 특징으로 한다. According to another aspect of the present invention, there is provided a method for providing user-based augmented reality information in a mobile terminal having a first image input unit and a second image input unit, The method includes the steps of simultaneously driving two image input units, receiving a first image of a user's face through the first image input unit, recognizing the user face from the first image, Acquiring user information matched to the first image input unit, receiving a second image captured in a direction opposite to the first image input unit through the second image input unit, extracting at least one object in the second image, Acquiring augmented reality information for the object corresponding to the user information; And displaying the real information in a superimposed manner.

본 발명에 따르면, 증강현실 서비스를 사용자의 정보에 따라 사용자에게 차별화하여 제공해 줌으로써, 서비스의 질과 만족도를 향상시킬 수 있는 이점이 있다. 또한, 본 발명은 증강현실 서비스 도중에 사용자가 바뀌더라도 사용자에 따라 해당 컨텐츠의 내용을 실시간으로 바꿔서 제공해 줄 수 있다. 또한, 본 발명은 다양한 인식 기술 및 하드웨어 구성을 기반으로 함으로써, 증강현실 서비스 시나리오를 다양하게 확장할 수 있도록 할 수 있다. According to the present invention, there is an advantage that quality and satisfaction of a service can be improved by differentiating and providing an augmented reality service to a user according to information of a user. In addition, the present invention can provide the content of the contents in real time in accordance with the user even if the user changes during the augmented reality service. In addition, the present invention can be extended to various augmented reality service scenarios based on various recognition technologies and hardware configurations.

도 1은 본 발명의 실시예에 따른 이동 단말기의 전면 및 후면을 나타낸 도면,
도 2는 본 발명의 실시예에 따른 이동 단말기의 내부 블록구성도,
도 3은 본 발명의 일실시예에 따른 사용자 기반의 증강 현실 정보를 제공하기 위한 이동 단말기에서의 동작 흐름도,
도 4는 본 발명의 다른 실시예에 따른 사용자 기반의 증강 현실 정보를 제공하기 위한 이동 단말기에서의 동작 흐름도,
도 5는 본 발명의 실시예에 따른 카메라 영상 내의 객체에 대한 증강 현실 정보를 중첩하여 나타낸 화면 예시도.
1 is a front view and a rear view of a mobile terminal according to an embodiment of the present invention,
2 is an internal block diagram of a mobile terminal according to an embodiment of the present invention;
3 is a flowchart illustrating an operation of a mobile terminal for providing user-based augmented reality information according to an exemplary embodiment of the present invention.
FIG. 4 is a flowchart illustrating an operation of a mobile terminal for providing user-based augmented reality information according to another embodiment of the present invention;
FIG. 5 is a diagram illustrating a screen in which the augmented reality information for an object in a camera image is superimposed on the augmented reality information according to an embodiment of the present invention.

이하 본 발명에 따른 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 구성 소자 등과 같은 특정 사항들이 나타나고 있는데 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술 분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. It will be appreciated that those skilled in the art will readily observe that certain changes in form and detail may be made therein without departing from the spirit and scope of the present invention as defined by the appended claims. To those of ordinary skill in the art.

본 발명은 사용자 기반의 증강 현실(Augmented Reality: AR) 정보를 제공하는 방법을 구현한다. 이를 위해 본 발명은 이동 단말기에 서로 반대 방향으로 장착된 두 개의 카메라를 동시에 구동하여, 전면 카메라를 통한 사용자 얼굴 영상으로부터는 얼굴을 인식하여 사용자 정보를 획득하고, 후면 카메라를 통한 영상으로부터는 적어도 하나의 객체를 추출한 후, 상기 사용자 정보를 기반으로 그 객체에 대한 증강 현실 정보를 결정하여, 상기 결정된 증강 현실 정보를 상기 객체에 중첩시켜 표시하는 과정으로 이루어진다. 이때, 그 객체가 움직이는 경우에는 그 객체에 대한 특징점을 추출하여 그 특징점을 추적하고, 추적된 객체에 대해 증강 현실 정보를 중첩시킬 좌표를 계산하여, 그 좌표에 증강 현실 정보가 배치되도록 렌더링하는 과정이 추가된다. 이렇게 함으로써, 증강현실 서비스를 사용자의 정보에 따라 사용자에게 차별화하여 제공해 줄 수 있다. The present invention implements a method of providing user-based augmented reality (AR) information. To this end, the present invention drives two cameras mounted in opposite directions to each other in a mobile terminal at the same time, acquires user information by recognizing a face from a user's face image through a front camera, and acquires user information from at least one Determining augmented reality information for the object based on the user information, and superimposing the determined augmented reality information on the object and displaying the augmented reality information. At this time, when the object moves, a feature point of the object is extracted, the feature point is tracked, the coordinates for superimposing the augmented reality information on the tracked object are calculated, and the augmented reality information is arranged Is added. By doing so, the augmented reality service can be differentiated and provided to the user according to the information of the user.

본 발명에서 이용되는 이동 단말기에서 카메라가 장착되는 경우를 예시하면 도 1에서와 같다. 도 1은 이동 단말기(100)의 사시도이다. 도 1을 참조하면, 이동 단말기(100)의 전면에는 제1영상 입력부(105)가 장착되며, 후면에는 제2영상 입력부(110)가 추가로 장착될 수 있다. The case where the camera is mounted in the mobile terminal used in the present invention is as shown in FIG. 1 is a perspective view of a mobile terminal 100. FIG. Referring to FIG. 1, a first image input unit 105 may be mounted on a front surface of the mobile terminal 100, and a second image input unit 110 may further be mounted on a rear surface thereof.

제1영상 입력부(105) 및 제2영상 입력부(110)는 서로 반대되는 촬영 방향을 가진다. 제1영상 입력부(105)는 사용자 방향을 향하므로 셀프 촬영 시 사용자의 얼굴을 촬영하는 역할을 하며, 제2영상 입력부(110)는 외부 방향을 향하므로 일반적인 피사체를 촬영하는 역할을 한다. The first image input unit 105 and the second image input unit 110 have opposite shooting directions. Since the first image input unit 105 faces the user, the second image input unit 110 takes a role of shooting a user's face at the time of self-photographing, and the second image input unit 110 is directed toward the outside.

이상에서는 제2영상 입력부(110)가 이동 단말기(100)의 후면에 배치되는 것으로 설명하였으나, 반드시 이에 한정되는 것은 아니다. In the above description, the second image input unit 110 is disposed on the rear side of the mobile terminal 100, but the present invention is not limited thereto.

이하, 이동 단말기의 동작 및 그 구성 요소를 살펴보기 위해 도 2를 참조한다. 본 발명의 이동 단말기는 도 1에서와 같은 휴대폰에 한정되는 것은 아니며, 영상 촬영이 가능하고, 피사체의 얼굴 인식을 수행할 수 있는 촬영 기기이면 어떠한 형태의 장치에도 적용 가능할 것이다. 예를 들면, 이동 단말기에는 스마트폰, 휴대폰, 태블릿(Tablet) PC, 디지털 카메라 등 촬영 기능을 지원하는 장치들이 해당될 것이다. Hereinafter, the operation of the mobile terminal and the components thereof will be described with reference to FIG. The mobile terminal of the present invention is not limited to the mobile phone as shown in FIG. 1, but may be applied to any type of imaging apparatus capable of image capturing and capable of performing face recognition of a subject. For example, the mobile terminal may be a device supporting a photographing function such as a smart phone, a mobile phone, a tablet PC, a digital camera, and the like.

도 2를 참조하면, 이동 단말기(100)는 크게 제1영상에 대한 인식을 수행하는 부분(205), 제2영상 내의 객체에 증강 현실 정보를 중첩시켜 재현(reproduction)하는 부분(215), 영상 출력부(217), 저장부(219) 및 제어부(220)를 포함한다. Referring to FIG. 2, the mobile terminal 100 mainly includes a part 205 for recognizing a first image, a part 215 for superimposing and reproducing augmented reality information on an object in a second image, An output unit 217, a storage unit 219, and a control unit 220.

제1영상과 관련된 부분(205)은 제1영상 입력부(105)와, 제1영상 입력부(105)를 통해 촬영된 제1영상에 대한 처리를 수행하는 제1영상 처리부(200)를 포함하며, 제2영상과 관련된 부분(215)은 제2영상 입력부(110)와, 제2영상 입력부(110)를 통해 촬영된 제2영상에 대한 처리를 수행하는 제2영상 처리부(210)를 포함한다. 도 2에서는 제1영상 처리부(200), 제2영상 처리부(210)를 별도로 구성한 경우를 예시하고 있으나 제어부(220)에 포함될 수 있으며, 제1영상 처리부(200) 및 제2영상 처리부(210)의 기능은 제어부(220)에서 담당할 수도 있다. The portion 205 related to the first image includes a first image input unit 105 and a first image processing unit 200 for processing a first image photographed through the first image input unit 105, The portion 215 related to the second image includes a second image input unit 110 and a second image processing unit 210 for processing a second image photographed through the second image input unit 110. The first image processor 200 and the second image processor 210 may be included in the control unit 220. The first image processor 200 and the second image processor 210 may be included in the controller 220, The control unit 220 may take charge of the function of the control unit.

먼저, 제1영상 입력부(105)는 카메라를 의미하며, 사용자에 대한 이미지 또는 동영상을 촬영한다. 사용자를 촬영한 영상 신호는 제1영상 처리부(200)로 전달되며, 제1영상 처리부(200)는 이러한 영상 신호를 프레임 단위로 처리하여 촬영된 영상에 대한 얼굴 인식을 수행한다. 여기서, 얼굴 인식은 사진 촬영과 같은 정지 화상뿐만 아니라, 동영상에 대해서도 적용될 수 있다. 예를 들어, 동영상의 경우 연속적인 정지 영상 프레임으로 구성되는 것이므로, 얼굴 인식을 위해 정지 영상 프레임이 사용될 수 있다. First, the first image input unit 105 means a camera, and captures an image or a moving image for a user. The image signal of the user is transmitted to the first image processing unit 200. The first image processing unit 200 processes the image signal in units of frames and performs face recognition on the photographed image. Here, the face recognition can be applied not only to still images such as photographing but also to moving images. For example, since moving images consist of continuous still image frames, still image frames can be used for face recognition.

이때, 얼굴 인식의 수행은 이동 단말기(100)에 구비된 얼굴 인식 알고리즘에 기반하며, 피사체의 얼굴 전체 윤곽 정보를 이용하여 식별하는 방법을 사용하거나 상기 얼굴에 포함된 각 구성요소 즉, 눈, 코, 입 등을 식별하는 방법들을 사용한다. 또한 얼굴 인식을 위한 전처리 과정으로 영상 내에서 얼굴의 위치를 검출하는 단계를 포함한다. At this time, the face recognition is performed based on the face recognition algorithm provided in the mobile terminal 100, and a method of identifying using the entire outline information of the face of the subject is used, or each component included in the face, , Mouth, and so on. And a step of detecting the position of the face in the image by a preprocessing process for recognizing the face.

이를 위해 제1영상 처리부(200)는 얼굴영역 검출부(225), 얼굴 특징 추출부(230), 얼굴 인식부(235) 및 인식결과 매칭부(240)를 포함할 수 있다. The first image processing unit 200 may include a face region detecting unit 225, a face feature extracting unit 230, a face recognizing unit 235, and a recognition result matching unit 240.

구체적으로, 얼굴영역 검출부(225)는 촬영 영상으로부터 피사체의 얼굴 영역을 검출하면, 얼굴 특징 추출부(230)는 검출된 얼굴 영역으로부터 눈 전체, 눈썹, 코, 입술 등에 대한 특징점들을 추출하거나 얼굴 전체 윤곽으로부터 인식에 사용 가능한 특징정보를 추출한다. 이렇게 함으로써 얼굴 인식부(235)는 피사체의 눈, 코, 입 등을 식별하거나 피사체 얼굴로부터 인식에 사용할 수 있는 특징정보를 획득할 수 있다. 다르게는 얼굴 인식부(235)는 촬영 영상을 저장부(219)에 미리 저장된 얼굴 영상과 비교하여 얼굴 인식을 수행하는 것이다. 여기서 미리 저장된 얼굴 영상은 얼굴의 특징정보 혹은 눈, 코, 입 등의 얼굴 구성요소 등을 포함한다.Specifically, when the face region detection unit 225 detects a face region of the subject from the photographed image, the face feature extraction unit 230 extracts minutiae points of the entire eye, eyebrows, nose, lips, etc. from the detected face region, Feature information usable for recognition is extracted from the outline. By doing so, the face recognition unit 235 can identify the eyes, nose, mouth, and the like of the subject or acquire the feature information that can be used for recognition from the subject face. Alternatively, the face recognition unit 235 compares the photographed image with a face image stored in the storage unit 219 in advance to perform face recognition. The pre-stored facial image includes facial feature information or facial components such as eyes, nose, mouth, and the like.

이러한 방법을 통해 얼굴 인식이 완료되면, 인식결과 매칭부(240)는 얼굴 인식 결과에 매칭되는 사용자 정보를 결정하는 역할을 한다. 인식결과 매칭부(240)는 저장부(219)에 저장된 정보를 근거로 얼굴 인식 결과로부터 이동 단말기(100)를 사용하는 피사체의 이름, 나이, 성별, 국적 등의 사용자 정보를 결정한다. When the face recognition is completed through this method, the recognition result matching unit 240 determines the user information matching the face recognition result. The recognition result matching unit 240 determines user information such as the name, age, sex, nationality, etc. of the subject using the mobile terminal 100 from the face recognition result based on the information stored in the storage unit 219. [

이와 같이 제1영상 처리부(200)는 얼굴인식 알고리즘을 기반으로 사용자를 촬영한 영상에 대한 인식을 수행하여, 인식 결과에 기반한 사용자 정보를 추출하는 역할을 한다.  In this manner, the first image processing unit 200 performs recognition of the image of the user based on the face recognition algorithm, and extracts user information based on the recognition result.

한편, 제2영상 입력부(110)는 제1영상 입력부(105)와 반대 방향으로 촬영한다. 예를 들어, 이동 단말기의 제2영상 입력부(110)에 해당하는 카메라로 주변을 비추면, 인근에 있는 피사체에 대한 영상이 프리뷰 영상으로 표시되는 경우가 해당된다. 이를 위해 제2영상 입력부(110)로부터의 촬영 영상은 제2영상 처리부(210)로 전달되며, 제2영상 처리부(210)는 그 촬영 영상 내의 적어도 하나의 객체를 추출하여 인식하고, 그 객체에 대해 상세 설명, 가상 객체 등이 입체 영상으로 표시될 수 있도록 촬영 영상을 처리한다. 이때, 그 객체에 대해 중첩되는 상세 설명, 가상 객체 등은 사용자 정보를 기반으로 한 것이다.On the other hand, the second image input unit 110 photographs in a direction opposite to the first image input unit 105. For example, when a user is illuminated by a camera corresponding to the second image input unit 110 of the mobile terminal, the image of a nearby object is displayed as a preview image. To this end, the photographed image from the second image input unit 110 is transmitted to the second image processing unit 210. The second image processing unit 210 extracts and recognizes at least one object in the photographed image, A detailed description, a virtual object, and the like can be displayed as a stereoscopic image. At this time, detailed descriptions, virtual objects, and the like superimposed on the object are based on user information.

영상 출력부(217)는 이동 단말기(100)의 각종 메뉴를 비롯하여 사용자가 입력한 정보 또는 사용자에게 제공하는 정보를 표시한다. 특히 영상 출력부(217)는 촬영 영상을 표시할 수 있다. 이러한 영상 출력부(217)는 셀프 촬영이 가능하도록 디스플레이 영역 중 일부를 제1영상 입력부(105)를 통해 촬영한 얼굴 영상 영역으로 설정받아 표시할 수 있다. 이때, 셀프 촬영을 위한 얼굴 영상 영역은 셀프 촬영 중에만 표시되는 것이 바람직하다. 다르게는 영상 출력부(217)는 제2영상 입력부(110)를 통해 촬영한 영상만을 표시할 수 있다. 이러한 경우 셀프 촬영이 용이하도록 얼굴 인식에 사용될 얼굴 영상의 촬영을 위해 별도의 액세서리 예컨대, 거울 등이 이동 단말기(100)에 장착될 수 있다. The video output unit 217 displays various types of menus of the mobile terminal 100 as well as information input by the user or information provided to the user. Particularly, the image output unit 217 can display a photographed image. The image output unit 217 may display and set a part of the display area as a face image area photographed through the first image input unit 105 to enable self photographing. At this time, it is preferable that the face image area for self photographing is displayed only during self photographing. Alternatively, the image output unit 217 may display only images captured through the second image input unit 110. In this case, a separate accessory, such as a mirror, may be mounted on the mobile terminal 100 for photographing a face image to be used for face recognition so as to facilitate self-photographing.

저장부(219)는 상기 이동 단말기(100)의 운영 시스템, 다양한 어플리케이션들, 상기 이동 단말기(100)로 입력되는 정보 및 그 내부에서 생성되는 정보 등을 저장한다. 예를 들어, 저장부(219)는 사진, 동영상 등과 같은 영상을 저장하며, 제1영상 입력부(105)를 통해 입력되는 피사체 얼굴을 인식하기 위한 얼굴 인식 알고리즘 및 얼굴 인식에 사용되는 데이터 등을 저장한다. 예를 들어, 얼굴 검출에 사용할 얼굴에 대한 정보와, 얼굴 인식에 사용할 미리 등록된 사용자별 얼굴 특징 정보들을 저장할 수 있다. The storage unit 219 stores the operating system of the mobile terminal 100, various applications, information input to the mobile terminal 100, and information generated therein. For example, the storage unit 219 stores images such as photographs and moving images, and stores a face recognition algorithm for recognizing a subject face input through the first image input unit 105 and data used for face recognition do. For example, information on a face to be used for face detection and face characteristic information per user registered in advance for use in face recognition can be stored.

또한, 저장부(219)는 증강 현실 서비스를 제공하는데 필요한 각 객체에 대한 증강 현실 정보를 저장한다. 이때, 증강 현실 정보는 외부 통신망을 통해 현재 위치를 기반으로 실시간으로 제공될 수도 있다. 예를 들어, 이동 단말기의 카메라로 주변을 비추면 인근에 있는 피사체의 상세 설명 등의 정보가 입체 영상으로 표시되는 경우가 이에 해당된다. The storage unit 219 stores the augmented reality information for each object required to provide the augmented reality service. At this time, the augmented reality information may be provided in real time based on the current location through an external communication network. For example, when the mobile terminal illuminates the surroundings with the camera, details such as detailed descriptions of the nearby objects are displayed as stereoscopic images.

또한, 저장부(219)는 제2영상 입력부(110)를 통해 실시간으로 입력되는 영상에서 움직이는 객체의 검출 및 추적에 필요한 알고리즘을 저장한다. 예를 들어, 저장부(219)는 영상 정합을 통해 증강 현실 정보를 중첩시킬 대상 객체에 대한 특징점 등을 저장한다.In addition, the storage unit 219 stores algorithms necessary for detecting and tracking moving objects in an image input in real time through the second image input unit 110. [ For example, the storage unit 219 stores feature points and the like for a target object to be superimposed on the augmented reality information through image matching.

한편, 입력 영상 내의 각 객체에 대한 움직임 검출 및 추적을 위해 제2영상 처리부(210)는 특징점 추출부(245), 특징점 정합부(250), 특징점 추적부(255), 좌표 계산부(260) 및 렌더링부(265)를 포함한다. The second image processing unit 210 includes a feature point extracting unit 245, a feature point matching unit 250, a feature point tracking unit 255, a coordinate calculation unit 260, And a rendering unit 265.

이때, 카메라의 촬영 위치, 포즈 등이 변하거나 증강 현실 정보가 중첩될 현실 속의 객체가 움직일 경우에는 증강 현실 정보를 오차없이 정확한 객체 위치에 증강시켜야 하는 것이 중요하다. 이를 위해 촬영 영상 내의 객체 검출 및 추적을 수행 시, 입력 영상의 특징 정보를 최소화하면서 영상 패턴의 변화가 두드러지게 나타나는 부분에서 특징 정보를 추출하는 것이 바람직하다. 여기서 특징점이란 각 영상 프레임에서 비교 대상이 되는 대표적인 픽셀 또는 픽셀의 집합을 말하며, 주로 영상 프레임에서 검출되기 쉬운 모서리 경계점(corner point), 명암 또는 색상 등의 변동 폭이 큰 경계선(edge) 등이 될 수 있다. In this case, when the object in the real world in which the photographing position, pose, etc. of the camera changes or the augmented reality information is overlapped, it is important to enhance the augmented reality information to an accurate object position without error. For this purpose, it is desirable to extract the feature information from the portion where the change of the image pattern is conspicuous while minimizing the feature information of the input image when performing object detection and tracking in the captured image. Herein, the feature point refers to a representative pixel or a set of pixels to be compared in each image frame, and may be a corner edge which is mainly detected in an image frame, a border having a large fluctuation width such as a contrast or color, etc. .

이에 따라 특징점 추출부(245)는 제2영상 입력부(110)를 통한 입력 영상의 특징 정보 즉, 특징점을 추출한다. 이를 위해 일반적인 특징점 추출 및 정합의 방법들을 그대로 또는 적절히 변형하여 사용할 수 있다. 예를 들어, 입력 영상에서 영상 패턴의 프레임 내 공간적인 변화를 나타내는 특징맵을 생성하여 상기 영상의 특징점을 추출하거나, 입력 영상에서 임의의 기준점의 위치를 기준으로 관심영역을 결정한 후, 그 관심 영역 안에 있는 특징점들을 추출하고 다음 단계인 특징점 정합 및 추적 결과에 따라 다음 영상에서의 관심 영역을 갱신하면서 특징점을 추출하는 방법 등이 사용될 수 있다.Accordingly, the feature point extracting unit 245 extracts feature information of the input image through the second image input unit 110, that is, feature points. For this purpose, general feature point extraction and matching methods can be used as is or modified appropriately. For example, a characteristic map representing a spatial change of an image pattern in a frame in an input image is generated to extract a feature point of the image, or an ROI is determined based on the position of an arbitrary reference point in the input image, A method of extracting feature points while updating a region of interest in a next image according to a feature point matching and tracking result in the next step, and the like.

특징점 정합부(250)는 추출된 특징점과 저장부(219)에 저장된 특징점을 정합하고, 특징점 추적부(255)는 정합된 특징점을 추적한다. 예를 들어, 적어도 하나의 객체에 대한 특징점 정보가 저장부(219)에 미리 저장되어 있을 경우 특징점 정합부(250)는 미리 저장된 객체에 대한 특징점 정보와 입력 영상 내의 객체에 대한 특징점 정보와 비교하여 정합되는 특징점을 찾는 것이다. 이렇게 함으로써, 카메라의 촬영 위치가 변하거나 입력 영상 내의 피사체가 움직이더라도 입력 영상 내의 객체의 위치, 크기 변화, 포즈 등을 추적할 수 있게 된다. The feature point matching unit 250 matches the extracted feature points with the feature points stored in the storage unit 219, and the feature point tracking unit 255 tracks the matching feature points. For example, when minutia information about at least one object is stored in advance in the storage unit 219, the minutia matching unit 250 compares the minutia information about the previously stored object with the minutia information about the object in the input image Find matching points. Thus, even if the photographing position of the camera changes or the subject in the input image moves, the position, size, pose, and the like of the object in the input image can be tracked.

좌표 계산부(260)는 카메라의 움직임을 계산하여 객체에 대한 증강 현실 정보를 증강시킬 좌표를 계산한다.The coordinate calculation unit 260 calculates coordinates of a camera to increase the augmented reality information for the object by calculating the motion of the camera.

렌더링부(265)는 입력 영상 내의 계산된 좌표에 상기 객체에 대한 증강 현실 정보가 배치된 2차원 영상을 만드는 역할을 한다. The rendering unit 265 creates a two-dimensional image in which the augmented reality information for the object is placed in the calculated coordinates in the input image.

제어부(220)는 이동 단말기(100)의 전반적인 동작을 제어한다. 본 발명의 실시예에 따른 제어부(220)는 제1영상 입력부(105)를 통한 얼굴 영상으로부터 사용자 인식을 수행하여 사용자 정보를 결정하도록 제어한다. 이와 동시에 제어부(220)는 제2영상 입력부(110)를 통해 실시간으로 입력되는 영상에서 객체 검출 및 추적을 수행하도록 제어한다. 이를 통해 입력 영상에서 객체가 움직이더라도 그 객체에 대한 증강 현실 정보를 그 움직임에 따른 위치에 중첩시켜 표시하도록 렌더링을 제어한다. 즉, 제어부(220)는 상기 객체의 위치 변화를 추적하여, 상기 추적된 위치에 상기 증강 현실 정보가 중첩되어 표시되도록 제어하는 역할을 한다. The control unit 220 controls the overall operation of the mobile terminal 100. The control unit 220 according to the embodiment of the present invention performs user recognition from the facial image through the first image input unit 105 to determine user information. At the same time, the control unit 220 controls the second image input unit 110 to perform object detection and tracking in an image input in real time. Thus, even if the object moves in the input image, the rendering is controlled so that the augmented reality information for the object is superimposed on the position corresponding to the movement. That is, the controller 220 tracks the position change of the object and controls the augmented reality information to be superimposed on the tracked position.

특히, 제어부(220)는 사용자 정보에 대응하여 렌더링부(265)에서 렌더링할 정보들과 영상 출력부(217)에서 출력할 내용들을 결정한다. 구체적으로, 제어부(220)는 인식결과 매칭부(240)에서 정해진 피사체의 이름, 나이, 성별, 국적 등의 사용자 정보를 기반으로 객체에 대한 증강 현실 정보를 결정하며, 결정된 증강 현실 정보를 그 객체에 중첩시켜 표시하도록 제어한다. In particular, the control unit 220 determines information to be rendered by the rendering unit 265 and contents to be output by the video output unit 217 in accordance with the user information. Specifically, the controller 220 determines the augmented reality information for the object based on the user information such as the name, age, sex, and nationality of the object determined by the recognition result matching unit 240, So as to be displayed.

이와 같이 본 발명에서는 기존에 이동 단말기의 후면에 장착되는 카메라를 이용하여 외부 피사체를 촬영하거나 전면에 장착되는 카메라를 이용하여 셀프 촬영을 하는 등 어느 하나의 카메라만을 이용할 수 밖에 없었던 한계를 개선할 수 있어, 카메라에 대한 효용성을 증대시킬 수 있다. 게다가 얼굴 인식 결과에 따라 여러 가지 차별화된 증강 현실 정보를 제공할 수 있어, 다양한 사용자의 기호를 만족시킬 수 있다. As described above, according to the present invention, it is possible to improve the limitation of using only one camera, such as photographing an external subject using a camera mounted on the rear surface of a mobile terminal, or taking a self- And can increase the utility of the camera. Furthermore, it is possible to provide various differentiated augmented reality information according to the result of face recognition, thereby satisfying various users' tastes.

이하, 상기와 같은 구성을 가지는 이동 단말기(100)의 동작 과정을 도 3 및 도 4를 참조하여 설명한다. 도 3은 본 발명의 일실시예에 따라 이동 단말기(100)에 장착된 카메라를 동시에 구동하는 경우를 전제로 하며, 도 4는 본 발명의 다른 실시예에 따라 카메라를 순차적으로 구동하는 경우를 전제로 한다. Hereinafter, the operation of the mobile terminal 100 having the above configuration will be described with reference to FIGS. 3 and 4. FIG. FIG. 3 illustrates a case where a camera mounted on the mobile terminal 100 is simultaneously driven according to an embodiment of the present invention. FIG. 4 illustrates a case where a camera is sequentially driven according to another embodiment of the present invention. .

도 3을 참조하면, 증강 현실 서비스 어플리케이션이 실행되면, 이동 단말기(100)은 300단계에서 제1영상 입력부(105) 및 제2영상 입력부(110)를 동시에 구동하는 모드로 진입할 수 있다. 이러한 모드는 크게 제1영상 입력부(105)에서의 제1영상을 처리하는 제1과정(305) 및 제2영상 입력부(110)에서의 제2영상을 처리하는 제2과정(310)으로 구분된다. 여기서, 제1과정(305)은 제1영상 입력부(105)를 통해 입력된 제1영상 예컨대, 얼굴 영상을 통해 이동 단말기(100)를 사용하는 사용자를 인식하는 과정이고, 제2과정(310)은 제2영상 입력부(110)를 통해 입력된 제2영상 예컨대, 배경 및 객체를 포함하는 영상에서 그 객체를 추적하는 과정이다.Referring to FIG. 3, when the augmented reality service application is executed, the mobile terminal 100 may enter a mode for simultaneously operating the first image input unit 105 and the second image input unit 110 in operation 300. This mode is roughly divided into a first process 305 for processing a first image in the first image input unit 105 and a second process 310 for processing a second image in the second image input unit 110 . The first step 305 is a step of recognizing a user who uses the mobile terminal 100 through a first image input through the first image input unit 105, Is a process of tracking the object in a second image input through the second image input unit 110, for example, an image including a background and an object.

먼저, 제1과정(305)을 살펴보면, 이동 단말기(100)는 제1영상 입력부(105)를 통해 얼굴 영상이 입력되면, 306단계에서 입력된 얼굴 영상에 대한 인식을 수행한다. 이를 위해 얼굴 인식 알고리즘이 사용될 수 있다. 이러한 얼굴 인식 결과가 출력되면 이동 단말기(100)는 307단계에서 인식 결과에 매칭되는 사용자 정보를 검색한다. 이에 따라 이동 단말기(100)에서는 이동 단말기(100)를 현재 사용하고 있는 사용자가 누구인지를 알 수 있게 된다. 예를 들어, 사용자 정보의 검색을 통해 이동 단말기(100)는 사용자의 이름, 나이, 성별, 국적 등의 사용자 정보를 획득할 수 있으며, 다르게는 미리 등록된 사용자들 중 어느 사용자인지를 판단할 수 있다. First, when the face image is input through the first image input unit 105, the mobile terminal 100 performs recognition of the face image input in operation 306. In operation S305, For this, a face recognition algorithm can be used. When the face recognition result is output, the mobile terminal 100 searches for user information matching the recognition result in step 307. [ Accordingly, the mobile terminal 100 can know who is currently using the mobile terminal 100. For example, the mobile terminal 100 can acquire user information such as a user's name, age, gender, nationality, etc. through the search of the user information, or otherwise determine which user is registered in advance have.

제2과정(310)을 살펴보면, 이동 단말기(100)는 제2영상 입력부(110)를 통해 적어도 하나의 객체를 포함하는 주변 영상을 입력 받으면, 311단계에서 그 입력된 주변 영상 내의 객체에 대한 특징점을 추출한다. 이어, 312단계에서 추출된 특징점 과 미리 저장되어 있는 객체에 대한 특징점 정보와의 정합을 통해 상기 객체의 위치, 크기, 포즈 등에 변화가 있는지를 판단한다. 만일 변화가 없는 경우에는 315단계로 진행하며, 상기 객체의 위치, 크기, 포즈 등에 변화가 있는 경우에는 313단계로 진행하여 객체의 위치, 크기, 포즈 등을 갱신한다. 이와 같이 객체의 위치, 크기, 포즈 등을 갱신함으로써 상기 객체의 이동에 따른 객체의 변화를 추적하는 것이다. 이러한 객체 추적을 위해 이전 영상 프레임에서 추출된 특징점의 위치와 현재 영상 프레임에서 추출된 특징점의 위치를 비교하는 방법이 이용될 수 있다. In operation 310, when the mobile terminal 100 receives a surrounding image including at least one object through the second image input unit 110, the mobile terminal 100 extracts feature points . Then, it is determined whether there is a change in the position, size, pose, or the like of the object through matching of the minutiae extracted in step 312 and the minutia information of the object stored in advance. If there is no change, the process proceeds to step 315, and if there is a change in the position, size, pose, or the like of the object, the process proceeds to step 313 to update the position, size, and pose of the object. In this way, the position, size, pose, and the like of the object are updated to track the change of the object according to the movement of the object. In order to track the object, a method of comparing the position of the feature point extracted from the previous image frame with the position of the feature point extracted from the current image frame may be used.

이어, 이동 단말기(100)는 315단계에서 상기 사용자 정보를 기반으로 상기 객체에 대한 증강 현실 정보를 결정한 후, 320단계에서 증강 현실 정보를 상기 객체에 중첩하여 표시한다. 이렇게 함으로써, 증강 현실 서비스를 사용자 정보에 따라 다르게 구성하여 제공해 줄 수 있게 된다. Then, the mobile terminal 100 determines the augmented reality information for the object based on the user information in step 315, and displays the augmented reality information on the object in step 320 in step 320. By doing so, the augmented reality service can be configured and provided according to the user information.

한편, 본 발명의 다른 실시예에 따라 카메라를 순차적으로 구동하는 경우를 도 4를 참조하여 설명한다. Meanwhile, a case in which cameras are sequentially driven according to another embodiment of the present invention will be described with reference to FIG.

도 4를 참조하면, 증강 현실 서비스 어플리케이션이 실행되면, 이동 단말기(100)은 400단계에서 제1영상 입력부(105)를 먼저 구동한다. 그러면 405단계에서 제1영상 입력부(105)를 통해 입력된 얼굴 영상에 대한 인식을 수행한다. 이어, 410단계에서 인식 결과에 매칭되는 사용자 정보를 검색한다. 이러한 405단계 및 410단계에서의 동작은 도 3의 306단계 및 307단계에서의 동작과 동일하다. Referring to FIG. 4, when the augmented reality service application is executed, the mobile terminal 100 first drives the first image input unit 105 in step 400. Referring to FIG. In step 405, the facial image input through the first image input unit 105 is recognized. In step 410, user information matching with the recognition result is retrieved. The operations in steps 405 and 410 are the same as those in steps 306 and 307 of FIG.

다만, 본 발명의 다른 실시예에서는 제1영상 입력부(105)가 구동되고 난 후 415단계에서 제2영상 입력부(110)가 구동된다는 점에서 차이가 있다. 따라서 420단계 내지 445단계에서의 동작은 도 3의 311단계 내지 320단계에서의 동작과 동일하므로, 그 구체적인 설명은 생략하기로 한다. However, in another embodiment of the present invention, there is a difference in that the second image input unit 110 is driven in step 415 after the first image input unit 105 is driven. Therefore, the operations in steps 420 to 445 are the same as those in steps 311 to 320 of FIG. 3, so a detailed description thereof will be omitted.

한편, 도 5는 본 발명의 실시예에 따른 카메라 영상 내의 객체에 대한 증강 현실 정보를 중첩하여 나타낸 화면을 예시하고 있다. 예를 들어, 미술관을 방문한 이동 단말기(100)의 사용자가 미술 작품이 걸려있는 주변을 촬영하면, 그 미술 작품이 포함된 주변 영상이 표시되는 프리뷰 화면을 볼 수 있다. Meanwhile, FIG. 5 illustrates a screen in which the augmented reality information for the object in the camera image is superimposed on the augmented reality information according to the embodiment of the present invention. For example, when a user of the mobile terminal 100 visiting a museum photographs a periphery where the art work is hanged, a preview screen on which a surrounding image including the art work is displayed can be seen.

이동 단말기(100)의 화면(500)에는 제2영상 입력부(110)를 통해 촬영한 주변 영상이 표시되는데, 그 주변 영상에는 사용자 정보 기반의 증강 현실 정보가 함께 표시될 수 있다. 예를 들어, 주변 영상 내에 포함된 객체에는 미술 작품(510, 515)이 해당되며, 그 미술 작품(510, 515)에 대한 증강 현실 정보로써 작품명, 화가, 그림 설명 등의 상세 설명(520, 525)이 중첩되어 표시될 수 있다. 이러한 증강 현실 정보는 이동 단말기(100)의 저장부(219)에 미리 저장된 것일 수 있으며, 다르게는 외부 서버로부터 획득된 것일 수 있다. 예를 들면, 이동 단말기(100)가 미술관으로 진입 시 그 미술관 내의 서버로부터 증강 현실 정보를 다운로드받을 수 있는 것이다.A peripheral image photographed through the second image input unit 110 is displayed on the screen 500 of the mobile terminal 100. Augmented reality information based on user information may be displayed together with the peripheral image. For example, the art objects 510 and 515 correspond to the objects included in the surrounding image, and the detailed descriptions 520, such as the art name, the artist, and the description of the art, as the augmented reality information for the art works 510 and 515, 525 may be superimposed and displayed. The augmented reality information may be previously stored in the storage unit 219 of the mobile terminal 100, or may be acquired from an external server. For example, when the mobile terminal 100 enters the art gallery, the augmented reality information can be downloaded from the server in the art gallery.

이때, 사용자를 향한 카메라를 통해 사용자 얼굴을 촬영함으로써 사용자의 국적이 한국인이라는 사용자 정보를 획득하게 되면, 상세 설명은 한국어로써 표시될 수 있다. 만일 사용자의 국적이 영어권이라면 상세 설명은 영어로써 표시될 것이다. 이와 같이 주변 영상에 상세 설명을 중첩하여 표시할 때 증강 현실 기법이 적용된다. 따라서 주변 영상 내 객체의 위치가 변하거나 촬영 방향 등이 변경되면, 변경된 영상에 대응되도록 증강 현실 정보가 표시되는 위치도 변경된다. At this time, if the user's face is photographed through the camera toward the user, the detailed description can be displayed in Korean if the user's nationality is Korean. If the user's nationality is in English, the detailed description will be displayed in English. As described above, the Augmented Reality technique is applied when superimposing detailed descriptions on the surrounding images. Therefore, when the position of the object in the surrounding image is changed or the photographing direction is changed, the position at which the augmented reality information is displayed is changed so as to correspond to the changed image.

한편, 도 5에서는 주변 영상 내의 객체에 중첩되어 표시되는 증강 현실 정보가 상세 설명인 경우를 예시하고 있으나, 동영상, 가상 객체 등으로 구현될 수도 있다. 예를 들어, 사용자가 영화 포스터를 촬영하는 경우에는 이동 단말기(100)는 그 영화 포스터에 포함된 특징점을 추출한 후, 그 영화 포스터 상에 영화 예고편을 증강시켜 표시할 수도 있다. 이때, 영화 예고편은 사용자 얼굴 인식 결과를 바탕으로 사용자의 연령대에 맞는 관람가를 가지는 예고편일 것이다. 이와 같이 본 발명은 사용자의 정보를 바탕으로 하므로, 현재 이동 단말기(100)를 가지고 있는 사용자에게 적합한 증강 현실 정보를 주변 영상과 함께 보여주는 것이 가능하다. Meanwhile, FIG. 5 illustrates a case where the augmented reality information superimposed and displayed on an object in the surrounding image is a detailed description, but it may be implemented as a moving image, a virtual object, or the like. For example, when a user shoots a movie poster, the mobile terminal 100 may extract feature points included in the movie poster, and then display a movie trailer on the movie poster. At this time, the movie trailer may be a trailer having a view value suitable for the user's age range based on the result of the user's face recognition. Since the present invention is based on the information of the user, it is possible to display the augmented reality information suitable for the user who currently has the mobile terminal 100 together with the surrounding images.

본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계로 읽을 수 있는 저장 매체에 저장될 수 있다. 저장부는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.It will be appreciated that embodiments of the present invention may be implemented in hardware, software, or a combination of hardware and software. Such arbitrary software may be stored in a memory such as, for example, a volatile or non-volatile storage device such as a storage device such as ROM or the like, or a memory such as a RAM, a memory chip, a device or an integrated circuit, , Or stored in a machine-readable storage medium, such as optical, or magnetically recordable, such as, for example, a CD, DVD, magnetic disk or magnetic tape. It will be appreciated that the storage is an example of a machine-readable storage medium suitable for storing programs or programs containing instructions for implementing the embodiments of the present invention. Accordingly, the present invention includes a program including code for implementing the method recited in any claim of this specification, and a machine-readable storage medium storing such a program. In addition, such a program may be electronically transported through any medium such as a communication signal transmitted via a wired or wireless connection, and the present invention appropriately includes the same.

또한, 상기 이동 단말기는 유선 또는 무선으로 연결되는 프로그램 제공 장치로부터 상기 프로그램을 수신하여 저장할 수 있다. 상기 프로그램 제공 장치는 상기 이동 단말기가 사용자 정보 기반의 증강 현실 서비스를 제공하기 위한 방법을 수행하도록 하는 지시들을 포함하는 프로그램, 상기 증강 현실 서비스를 제공하기 위한 방법에 필요한 정보 등을 저장하기 위한 메모리와, 상기 이동 단말기와의 유선 또는 무선 통신을 수행하기 위한 통신부와, 상기 이동 단말기의 요청 또는 자동으로 해당 프로그램을 상기 이동 단말기로 전송하는 제어부를 포함할 수 있다.Also, the mobile terminal can receive and store the program from a program providing apparatus connected by wire or wireless. The program providing apparatus includes a memory for storing a program including instructions for the mobile terminal to perform a method for providing an augmented reality service based on a user information, information required for a method for providing the augmented reality service, A communication unit for performing wired or wireless communication with the mobile terminal, and a controller for requesting the mobile terminal or automatically transmitting the program to the mobile terminal.

Claims (15)

사용자 기반의 증강 현실 정보를 제공하기 위한 장치에 있어서,
사용자 얼굴을 촬영한 제1영상을 출력하는 제1영상 입력부와,
상기 제1영상 입력부와 반대 방향으로 촬영한 제2영상을 출력하는 제2영상 입력부와,
상기 제2영상을 표시하는 표시부와,
상기 제1영상으로부터 상기 사용자 얼굴을 인식하고, 상기 사용자 얼굴을 인식한 결과에 매칭되는 사용자 식별 정보를 획득하는 제1영상 처리부와,
상기 제2영상 내의 적어도 하나의 객체를 추출하며, 상기 사용자 식별 정보에 대응하는 상기 객체에 대한 증강 현실 정보를 획득하는 제2영상 처리부와,
상기 제2영상 내의 상기 객체에 상기 증강 현실 정보를 중첩시켜 상기 표시부 상에 표시하도록 제어하는 제어부를 포함함을 특징으로 하는 사용자 기반의 증강 현실 정보를 제공하기 위한 장치.
An apparatus for providing user-based augmented reality information,
A first image input unit for outputting a first image of a user's face,
A second image input unit for outputting a second image photographed in a direction opposite to the first image input unit;
A display unit for displaying the second image;
A first image processor for recognizing the user face from the first image and acquiring user identification information matched with a result of recognizing the user face;
A second image processing unit for extracting at least one object in the second image and acquiring augmented reality information for the object corresponding to the user identification information;
And a controller for superimposing the augmented reality information on the object in the second image and displaying it on the display unit.
제1항에 있어서, 상기 제어부는,
증강 현실 서비스 어플리케이션이 실행되면, 상기 제1영상 입력부 및 상기 제2영상 입력부를 동시에 구동함을 특징으로 하는 사용자 기반의 증강 현실 정보를 제공하기 위한 장치.
The apparatus of claim 1,
When the augmented reality service application is executed, the first image input unit and the second image input unit are simultaneously driven.
제1항에 있어서, 상기 제1영상 처리부는,
상기 제1영상으로부터 사용자 얼굴 영역을 검출하는 얼굴 영역 검출부와,
상기 검출된 얼굴 영역으로부터 얼굴 특징을 추출하는 얼굴 특징 추출부와,
상기 추출된 얼굴 특징을 이용하여 상기 사용자 얼굴을 인식하는 얼굴 인식부와,
상기 사용자 얼굴을 인식한 결과에 대응하는 사용자 식별 정보를 검색하는 인식 결과 매칭부를 포함함을 특징으로 하는 사용자 기반의 증강 현실 정보를 제공하기 위한 장치.
The apparatus of claim 1, wherein the first image processor comprises:
A face region detecting unit for detecting a user face region from the first image;
A face feature extraction unit for extracting a face feature from the detected face region,
A face recognition unit for recognizing the user face using the extracted face feature,
And a recognition result matching unit for searching for user identification information corresponding to a result of recognizing the user's face.
제1항에 있어서, 상기 제2영상 처리부는,
상기 제2영상 내의 적어도 하나의 객체에 대한 특징점을 추출하는 특징점 추출부와,
상기 추출된 특징점을 이용하여 상기 객체를 추적하는 특징점 추적부를 포함함을 특징으로 하는 사용자 기반의 증강 현실 정보를 제공하기 위한 장치.
The image processing apparatus according to claim 1,
A feature point extracting unit that extracts feature points of at least one object in the second image,
And a feature point tracking unit for tracking the object using the extracted feature points.
제4항에 있어서,
상기 추출된 특징점과 미리 저장되어 있는 특징점을 정합하는 특징점 정합부를 더 포함함을 특징으로 하는 사용자 기반의 증강 현실 정보를 제공하기 위한 장치.
5. The method of claim 4,
And a feature point matching unit for matching the extracted feature points with previously stored feature points.
제5항에 있어서, 상기 특징점 추적부는,
상기 정합된 특징점을 추적함으로써 상기 객체를 추적하는 것임을 특징으로 하는 사용자 기반의 증강 현실 정보를 제공하기 위한 장치.
6. The apparatus according to claim 5,
And tracking the object by tracking the matched minutiae points. ≪ Desc / Clms Page number 19 >
제4항에 있어서, 상기 제어부는,
상기 객체의 위치 변화를 추적하여, 상기 추적된 위치에 상기 증강 현실 정보가 중첩되어 표시되도록 제어함을 특징으로 하는 사용자 기반의 증강 현실 정보를 제공하기 위한 장치.
5. The apparatus of claim 4,
And controls the positional change of the object to be tracked so that the augmented reality information is superimposed and displayed at the tracked position.
제1항에 있어서, 상기 사용자 식별 정보는,
상기 사용자에 대한 나이, 이름, 성별, 국적 중 적어도 하나를 포함함을 특징으로 하는 사용자 기반의 증강 현실 정보를 제공하기 위한 장치.
2. The method according to claim 1,
And at least one of age, name, sex, and nationality of the user.
제8항에 있어서, 상기 증강 현실 정보는,
상기 사용자의 국적에 대응하는 언어로 표시되는 것임을 특징으로 하는 사용자 기반의 증강 현실 정보를 제공하기 위한 장치.
The method as claimed in claim 8,
Wherein the user-based augmented reality information is displayed in a language corresponding to the user's nationality.
제1영상 입력부 및 제2영상 입력부를 구비한 이동 단말기에서 사용자 기반의 증강 현실 정보를 제공하기 위한 방법에 있어서,
증강 현실 서비스 어플리케이션이 실행되면, 상기 제1영상 입력부 및 상기 제2영상 입력부를 동시에 구동하는 과정과,
상기 제1영상 입력부를 통해 사용자 얼굴을 촬영한 제1영상을 입력받는 과정과,
상기 제1영상으로부터 상기 사용자 얼굴을 인식하고, 상기 사용자 얼굴을 인식한 결과에 매칭되는 사용자 식별 정보를 획득하는 과정과,
상기 제2영상 입력부를 통해 상기 제1영상 입력부와 반대 방향으로 촬영한 제2영상을 입력받는 과정과,
상기 제2영상 내의 적어도 하나의 객체를 추출하며, 상기 사용자 식별 정보에 대응하는 상기 객체에 대한 증강 현실 정보를 획득하는 과정과,
상기 제2영상 내의 상기 객체에 상기 증강 현실 정보를 중첩시켜 표시하는 과정을 포함함을 특징으로 하는 사용자 기반의 증강 현실 정보를 제공하기 위한 방법.
A method for providing user-based augmented reality information in a mobile terminal having a first image input unit and a second image input unit,
When the augmented reality service application is executed, simultaneously operating the first image input unit and the second image input unit;
Receiving a first image of a user's face through the first image input unit;
Recognizing the user face from the first image and acquiring user identification information matching the recognition result of the user face;
Receiving a second image photographed in a direction opposite to the first image input unit through the second image input unit;
Extracting at least one object in the second image and acquiring augmented reality information for the object corresponding to the user identification information;
And a step of superimposing the augmented reality information on the object in the second image and displaying the augmented reality information.
제10항에 있어서, 상기 사용자 식별 정보를 획득하는 과정은,
상기 제1영상으로부터 사용자 얼굴 영역을 검출하는 과정과,
상기 검출된 얼굴 영역으로부터 얼굴 특징을 추출하는 과정과,
상기 추출된 얼굴 특징을 이용하여 상기 사용자 얼굴을 인식하는 과정과,
상기 사용자 얼굴을 인식한 결과에 대응하는 사용자 식별 정보를 검색하는 과정을 포함함을 특징으로 하는 사용자 기반의 증강 현실 정보를 제공하기 위한 방법.
The method of claim 10, wherein the step of acquiring user identification information comprises:
Detecting a user's face region from the first image;
Extracting a face feature from the detected face region;
Recognizing the user face using the extracted face feature;
And searching for user identification information corresponding to a result of recognizing the user's face.
제11항에 있어서, 상기 사용자 식별 정보는,
상기 사용자에 대한 나이, 이름, 성별, 국적 중 적어도 하나를 포함함을 특징으로 하는 사용자 기반의 증강 현실 정보를 제공하기 위한 방법.
12. The method according to claim 11,
Wherein the information includes at least one of age, name, sex, and nationality of the user.
제12항에 있어서, 상기 증강 현실 정보는,
상기 사용자의 국적에 대응하는 언어로 표시되는 것임을 특징으로 하는 사용자 기반의 증강 현실 정보를 제공하기 위한 방법.
13. The method according to claim 12,
Wherein the user-based augmented reality information is displayed in a language corresponding to the user's nationality.
제10항에 있어서, 상기 제2영상 내의 적어도 하나의 객체를 추출하는 과정은,
상기 제2영상 내의 적어도 하나의 객체에 대한 특징점을 추출하는 과정과,
상기 추출된 특징점을 이용하여 상기 객체를 추적하는 과정을 포함함을 특징으로 하는 사용자 기반의 증강 현실 정보를 제공하기 위한 방법.
The method of claim 10, wherein the extracting of at least one object in the second image comprises:
Extracting feature points for at least one object in the second image;
And tracking the object by using the extracted minutiae points.
제14항에 있어서, 상기 표시하는 과정은,
상기 객체의 위치 변화를 추적하여, 상기 추적된 위치에 상기 증강 현실 정보를 중첩시켜 표시하는 과정임을 특징으로 하는 사용자 기반의 증강 현실 정보를 제공하기 위한 방법.
15. The method of claim 14,
And tracking the change of the position of the object and displaying the augmented reality information in a superimposed manner at the tracked position.
KR1020120035065A 2012-04-04 2012-04-04 Appratus and method for providing augmented reality information based on user KR101923177B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120035065A KR101923177B1 (en) 2012-04-04 2012-04-04 Appratus and method for providing augmented reality information based on user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120035065A KR101923177B1 (en) 2012-04-04 2012-04-04 Appratus and method for providing augmented reality information based on user

Publications (2)

Publication Number Publication Date
KR20130112578A KR20130112578A (en) 2013-10-14
KR101923177B1 true KR101923177B1 (en) 2019-02-27

Family

ID=49633557

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120035065A KR101923177B1 (en) 2012-04-04 2012-04-04 Appratus and method for providing augmented reality information based on user

Country Status (1)

Country Link
KR (1) KR101923177B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11636629B2 (en) 2020-02-21 2023-04-25 Samsung Electronics Co., Ltd. Method and apparatus for rendering object using edge computing service

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102114618B1 (en) * 2014-01-16 2020-05-25 엘지전자 주식회사 Portable and method for controlling the same
KR102649197B1 (en) * 2016-07-29 2024-03-20 삼성전자주식회사 Electronic apparatus for displaying graphic object and computer readable recording medium
KR101841993B1 (en) * 2016-11-15 2018-03-26 (주) 아이오티솔루션 Indoor-type selfie support Camera System Baseon Internet Of Thing
KR101868101B1 (en) * 2017-02-15 2018-06-18 주식회사 오비투유 Apparatus, method and computer program for generating contents
KR102107706B1 (en) 2017-10-31 2020-05-07 에스케이텔레콤 주식회사 Method and apparatus for processing image
KR101985711B1 (en) * 2019-03-13 2019-06-04 (주)정도기술 Augmented reality CCTV system, and control method for the same
WO2024025089A1 (en) * 2022-07-29 2024-02-01 삼성전자주식회사 Display device for displaying ar object and control method thereof
WO2024043526A1 (en) * 2022-08-25 2024-02-29 삼성전자 주식회사 Method for providing virtual image corresponding to digital item, and augmented reality device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090080812A (en) * 2008-01-22 2009-07-27 삼성전자주식회사 Apparatus and method for providing user adaptive advertisement image
KR20110130309A (en) * 2010-05-27 2011-12-05 한국항공대학교산학협력단 Realtime markerless 3d object tracking system for augmented reality and method therefor
KR101148508B1 (en) * 2010-07-16 2012-05-25 한국과학기술원 A method and device for display of mobile device, and mobile device using the same
KR20120012627A (en) * 2010-08-02 2012-02-10 에스케이플래닛 주식회사 System and method for providing personal information based on augmented reality

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11636629B2 (en) 2020-02-21 2023-04-25 Samsung Electronics Co., Ltd. Method and apparatus for rendering object using edge computing service

Also Published As

Publication number Publication date
KR20130112578A (en) 2013-10-14

Similar Documents

Publication Publication Date Title
KR101923177B1 (en) Appratus and method for providing augmented reality information based on user
US9576183B2 (en) Fast initialization for monocular visual SLAM
KR101603017B1 (en) Gesture recognition device and gesture recognition device control method
KR101469398B1 (en) Text-based 3d augmented reality
US20190228263A1 (en) Training assistance using synthetic images
JP4692371B2 (en) Image processing apparatus, image processing method, image processing program, recording medium recording image processing program, and moving object detection system
CN104885098A (en) Mobile device based text detection and tracking
JP5674465B2 (en) Image processing apparatus, camera, image processing method and program
CN107395957B (en) Photographing method and device, storage medium and electronic equipment
CN105095853B (en) Image processing apparatus and image processing method
JP2002216129A (en) Face area detector, its method and computer readable recording medium
JP2019204518A (en) Person tracking method, device, instrument and storage medium
KR20160146567A (en) Method and device for detecting variable and fast moving object
WO2020032254A1 (en) Attention target estimating device, and attention target estimating method
CN112073640B (en) Panoramic information acquisition pose acquisition method, device and system
KR101308184B1 (en) Augmented reality apparatus and method of windows form
CN113610865A (en) Image processing method, image processing device, electronic equipment and computer readable storage medium
KR101726692B1 (en) Apparatus and method for extracting object
CN110177216B (en) Image processing method, image processing device, mobile terminal and storage medium
US11410398B2 (en) Augmenting live images of a scene for occlusion
US20220207585A1 (en) System and method for providing three-dimensional, visual search
US20180047169A1 (en) Method and apparatus for extracting object for sticker image
KR20190063130A (en) Smart mirror
JP2014085845A (en) Moving picture processing device, moving picture processing method, program and integrated circuit
KR102628714B1 (en) Photography system for surpporting to picture for mobile terminal and method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right