KR20200048414A - Selfie support Camera System Using Augmented Reality - Google Patents

Selfie support Camera System Using Augmented Reality Download PDF

Info

Publication number
KR20200048414A
KR20200048414A KR1020180130497A KR20180130497A KR20200048414A KR 20200048414 A KR20200048414 A KR 20200048414A KR 1020180130497 A KR1020180130497 A KR 1020180130497A KR 20180130497 A KR20180130497 A KR 20180130497A KR 20200048414 A KR20200048414 A KR 20200048414A
Authority
KR
South Korea
Prior art keywords
real
image
augmented reality
self
user
Prior art date
Application number
KR1020180130497A
Other languages
Korean (ko)
Inventor
지용주
Original Assignee
(주)벨류데이터
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)벨류데이터 filed Critical (주)벨류데이터
Priority to KR1020180130497A priority Critical patent/KR20200048414A/en
Publication of KR20200048414A publication Critical patent/KR20200048414A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • H04N5/23222
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N5/23293

Abstract

A selfie support camera system comprises: an augmented reality (AR) terminal which has an embedded imaging camera to photograph an image around a user to acquire real image information, display a three-dimensional virtual image on a display, and display the three-dimensional virtual image corresponding to the real image information and current position information within a view range of the user; and a server to supply the three-dimensional virtual image corresponding to the real image information and the current position information transmitted from the augmented reality terminal to the augmented reality terminal in real time. For a customer intending to use a selfie and a video selfie, a selfie camera recognizes individual user AR stickers when touring a designated area and section, and augmented reality content assigned to each AR sticker is received from the server to automatically generate photographed images.

Description

증강현실을 이용한 자가촬영사진지원 카메라 시스템{Selfie support Camera System Using Augmented Reality}Selfie support camera system using Augmented Reality

본 발명은 카메라 시스템에 관한 것으로서, 더 상세하게는 증강현실을 이용한 자가촬영사진지원 카메라 시스템에 관한 것이다.The present invention relates to a camera system, and more particularly, to a self-portrait photography support camera system using augmented reality.

최근의 휴대용 단말기는 기본적으로 카메라를 구비하고 있고, 상기 카메라를 이용한 촬영 기능을 지원하고 있다. 사용자는 사진 촬영시, 휴대용 단말기의 키를 누르거나, 스크린 상의 버튼을 터치하여 카메라 촬영을 수행한다.Recently, a portable terminal basically includes a camera, and supports a shooting function using the camera. When the user takes a picture, the user presses a key of the portable terminal or touches a button on the screen to perform camera shooting.

한편, 사용자가 촬영 시, 스크린 상의 버튼을 터치할 경우, 일반적으로 엄지 손가락으로 터치하므로, 촬영시, 상기 휴대용 단말기를 쥔 손이 흔들리거나 손의 자세가 불안해 질 수 있으며, 특히 자가촬영(셀프촬영)시에는 휴대용 단말기가 더 흔들릴 수 있다.On the other hand, when a user touches a button on the screen when photographing, since the user generally touches with a thumb, the hand held by the portable terminal may shake or the posture of the hand may become unstable when photographing. In particular, self-portrait (self-shooting) ), The portable terminal may shake more.

따라서 이와 같은 문제점을 해결하기 위해 한국공개특허 제10-2013-0054576호, "셀프 카메라 촬영을 위한 방법 및 장치"가 제안되었으나, 상술한 셀프 카메라 촬영을 위한 방법 및 장치는 본인의 영상을 주변 환경과 함께 근거리, 중거리, 원거리 형태별로 자동 촬영하기가 어렵고, 이를 가공하여 분석하여 제공하는 서비스를 제공하기 어렵다.Therefore, in order to solve this problem, Korean Patent Publication No. 10-2013-0054576, "Method and Apparatus for Self-Self Camera Shooting," has been proposed, but the above-described method and device for self-portrait shooting uses the user's video in the surrounding environment. In addition, it is difficult to automatically shoot by short, medium, and long distance, and it is difficult to provide a service provided by processing and analyzing it.

또한, 사용자가 자신의 휴대용 단말기를 이용하여 자가촬영을 진행할 경우, 셀카봉을 활용하더라도 좁은 범위의 배경만을 촬영할 수 있다.In addition, when a user performs a self-portrait using his portable terminal, even using a selfie stick, only a narrow range of backgrounds can be photographed.

최근 카메라 모듈을 이용한 촬영 시 현실의 공간에 다양한 정보를 덧씌워 보여 주는 증강 현실(augmented reality) 기법을 이용한 컨텐츠 제공이 활발히 연구되고 있다.Recently, content providing using an augmented reality technique that shows a variety of information overlaid on a real space when shooting using a camera module has been actively researched.

증강현실(Augmented Reality, AR)이란 가상현실(Virtual Reality, VR)의 한 분야에 속하는 기술이며, 사용자가 감각으로 느끼는 실제환경에 가상환경을 합성하여 원래의 실제환경에 가상환경이 존재하는 것처럼 느끼게 하는 컴퓨터 기법이다.Augmented Reality (AR) is a technology belonging to one field of Virtual Reality (VR), and it synthesizes a virtual environment into a real environment that a user feels and makes them feel as if the virtual environment exists in the original real environment. Is a computer technique.

이러한 증강 현실은 가상의 공간과 사물만을 대상으로 하는 기존의 가상현실과 달리 현실 세계의 기반에 가상사물을 합성하여 현실 세계만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있는 장점이 있다.Unlike a conventional virtual reality that targets only virtual spaces and objects, such augmented reality has the advantage of synthesizing virtual objects on the basis of the real world and reinforcing and providing additional information that is difficult to obtain with the real world alone.

즉, 사용자가 보고 있는 실사 영상에 컴퓨터 그래픽으로 만들어진 가상환경, 예를 들면, 3차원 가상환경을 정합함으로써 구현된 현실을 증강현실이라고 할 수 있다. 여기서, 3차원 가상환경은 사용자가 바라보는 실사 영상에서 필요한 정보를 제공해주고, 3차원 가상영상은 실사영상과 정합되어 사용자의 몰입도를 높일 수 있다.That is, the reality implemented by matching a virtual environment made of computer graphics to a live image viewed by a user, for example, a 3D virtual environment, can be referred to as augmented reality. Here, the 3D virtual environment provides necessary information in the live-action image viewed by the user, and the 3D virtual image can be matched with the live-action image to increase the immersion of the user.

이러한 증강현실은 단순 가상현실 기술에 비하여 3차원 가상환경에 실사영상도 같이 제공하여 현실환경과 가상 환경과의 구분이 모호해지게 함으로써, 보다 나은 현실감을 제공할 수 있다.Such augmented reality can provide a better sense of reality by providing a photorealistic image in a 3D virtual environment as compared to a simple virtual reality technology, thereby blurring the distinction between the real environment and the virtual environment.

이와 같은 증강현실 시스템의 장점에 기인하여, 최근 세계적으로 증강현실을 접목한 기술에 대해 활발한 연구/ 개발이 진행되고 있다. 예를 들어, 증강 현실 기술은 방송, 광고, 전시, 게임, 테마 파크, 군용, 교육 및 프로모션 등의 분야에서 실용화가 진행 중인 상태이다.Due to the advantages of the augmented reality system, active research / development of technologies incorporating augmented reality has been actively conducted worldwide. For example, augmented reality technology is in commercialization in the fields of broadcasting, advertising, exhibitions, games, theme parks, military, education and promotion.

이동 단말기는 최근 휴대폰, PDA(personal digital assistants), UMPC(ultra mobile personalcomputer) 등 모바일 기기의 컴퓨팅 능력 향상 및 무선 네트워크 장치의 발달로 핸드헬드(handheld) 증강현실시스템이 가능해졌다.Mobile terminals have recently become available for handheld augmented reality systems due to the improvement of computing capabilities of mobile devices such as mobile phones, personal digital assistants (PDAs), and ultra mobile personal computers (UMPCs) and the development of wireless network devices.

이러한 시스템이 가능해지면서 모바일 기기를 사용한 증강현실 어플리케이션이 다수 개발되었다. 그리고 모바일 기기의 보급이 매우 빠르게 보편화되어 증강현실 어플리케이션을 접할 수 있는 환경이 조성되고 있는 상황이다.As such a system becomes possible, a number of augmented reality applications using mobile devices have been developed. In addition, the spread of mobile devices is becoming very common, and an environment in which augmented reality applications can be accessed is being created.

더불어, 단말기의 증강현실을 이용한 다양한 부가서비스에 대한 사용자 요구가 증대하고 있으며, 이를 이용하여 단말기 사용자에게 다양한 증강현실 컨텐츠를 적용하려는 시도가 증가하고 있다.In addition, user demand for various supplementary services using augmented reality of the terminal is increasing, and attempts to apply various augmented reality contents to the terminal user by using this are increasing.

본 발명은 상기와 같은 기술적 과제를 해결하기 위해 제안된 것으로,The present invention is proposed to solve the above technical problem,

셀피 및 자가촬영 동영상을 이용하려는 고객에게 정해진 구역 및 구간을 관광할 때 셀피카메라가 개개인의 이용자 AR스티커를 인식하고, 각 AR스티커에 할당된 증강현실 컨텐츠를 포함하여 촬영 영상물을 자동생성하는 증강현실을 이용한 자가촬영사진지원 카메라 시스템을 제공한다.Augmented reality where the selfie camera recognizes the individual user's AR sticker and automatically generates the recorded video, including the augmented reality content assigned to each AR sticker when sightseeing in a designated area and section for customers who want to use selfie and self-portrait video. Self-portrait photo support camera system is provided.

또한, AR스티커를 정확하게 식별한 후 실제객체에 할당된 가상객체를 목표된 위치에 표시할 수 있는 자가촬영사진지원 카메라 시스템을 제공한다.In addition, it provides a self-photographed photo support camera system that can accurately identify AR stickers and display virtual objects assigned to real objects at target locations.

본 발명의 일 실시예에 따르면, 사용자 주위의 영상을 촬영하여 실제영상정보를 획득하는 영상 카메라가 내장되며 디스플레이에 3차원 가상영상을 표시함에 있어서, 현재위치정보와 상기 실제영상정보에 대응하는 상기 3차원 가상영상을 사용자의 시야범위 내에 표시하는 증강현실 단말기와, 상기 증강현실 단말기로부터 전송되는 상기 현재위치정보와 상기 실제영상정보에 대응되는 상기 3차원 가상영상을 상기 증강현실 단말기에 실시간으로 제공하는 서버를 포함하고, 셀피 및 자가촬영 동영상을 이용하려는 고객에게 정해진 구역 및 구간을 관광할 때 셀피카메라가 개개인의 이용자 AR스티커를 인식하고, 각 AR스티커에 할당된 증강현실 컨텐츠를 상기 서버로부터 제공받아 촬영 영상물을 자동생성하는 것을 특징으로 하는 자가촬영사진지원 카메라 시스템이 제공된다.According to an embodiment of the present invention, an image camera for capturing real image information by capturing an image around a user is built in and displaying a 3D virtual image on a display, wherein the current location information corresponds to the real image information. An augmented reality terminal displaying a 3D virtual image within a user's field of view, and the 3D virtual image corresponding to the current location information and the real image information transmitted from the augmented reality terminal to the augmented reality terminal in real time The server includes a self-portrait and self-portrait video to the customer who wants to use the self-portrait video. When taking a tour of a designated area and section, the selfie camera recognizes each user's AR sticker and provides AR content assigned to each AR sticker from the server. Self-portrait photo support camera characterized by automatic creation The system is provided.

또한, 상기 서버는 상기 실제영상정보의 실제객체를 영상 식별하고 식별된 실제객체에 각각 할당된 상기 3차원 가상영상의 가상객체를 상기 증강현실 단말기에 제공함에 있어서, 상기 증강현실 단말기는, 공간을 3차원적으로 인식하여 공간기반의 3차원 정합 좌표계를 생성하고 상기 공간기반의 3차원 정합 좌표계를 기준으로 각각 미리 할당된 실제객체의 좌표에 각각의 가상객체를 표시하되, 상기 실제영상정보의 실제객체가 사물인식기반으로 영상 식별될 때마다 상기 실제객체의 좌표를 다시 파악한 후, 파악된 상기 실제객체의 좌표를 갱신하고, 갱신된 상기 실제객체의 좌표에 미리 할당된 가상객체를 표시하는 것을 특징으로 한다.In addition, the server identifies the real object of the real image information and provides the virtual object of the 3D virtual image allocated to each of the identified real objects to the augmented reality terminal, wherein the augmented reality terminal provides space. Recognize in three dimensions to create a space-based three-dimensional registration coordinate system, and display each virtual object in the coordinates of a real object pre-allocated based on the space-based three-dimensional registration coordinate system. Each time an object is image-identified based on object recognition, the coordinates of the real object are re-recognized, and the identified coordinates of the real object are updated, and a virtual object pre-assigned to the updated coordinates of the real object is displayed. Is done.

또한, 상기 서버는, 상기 실제영상정보에 존재하는 복수의 실제객체 중에서 소정의 영상 유사도 값 이상을 갖는 실제객체들은 각각의 실제영상정보를 차분하여 추가인식영역을 선정하고, 추가인식영역의 영상 차이점을 토대로 고유 식별자를 실제객체에 각각 부여하고, 추가인식영역의 영상 차이점을 토대로 각각의 실제객체에 부여된 고유 식별자와, 각 실제객체의 현재위치정보를 모두 고려하여 각각의 실제객체를 식별하는 것을 특징으로 한다.In addition, the server selects additional recognition regions by differentiating each actual image information among actual objects existing in the actual image information and having a predetermined image similarity value or higher, and selecting an additional recognition region, and the image difference between the additional recognition regions It is to identify each real object by considering the unique identifier assigned to each real object and the current location information of each real object based on the image difference of the additional recognition area. It is characterized by.

또한, 상기 서버는, 상기 실제영상정보에 존재하는 복수의 실제객체 중에서 소정의 영상 유사도 값 이상을 갖는 실제객체들은 각각의 실제영상정보를 차분하여 추가인식영역을 선정하고, 추가인식영역의 영상 차이점을 토대로 고유 식별자를 실제객체에 각각 부여하고, 각 실제객체의 현재위치정보를 토대로 추가인식영역의 후보위치를 결정하는 것을 특징으로 한다.In addition, the server selects additional recognition regions by differentiating each actual image information among actual objects existing in the actual image information and having a predetermined image similarity value or higher, and selecting an additional recognition region, and the image difference between the additional recognition regions It is characterized in that a unique identifier is assigned to each of the real objects based on and a candidate position of the additional recognition area is determined based on the current position information of each real object.

본 발명의 실시예에 따른 자가촬영사진지원 카메라 시스템은,Self-portrait photo support camera system according to an embodiment of the present invention,

셀피 및 자가촬영 동영상을 이용하려는 고객에게 정해진 구역 및 구간을 관광할 때 셀피카메라가 개개인의 이용자 AR스티커를 인식하고, 각 AR스티커에 할당된 증강현실 컨텐츠를 포함하여 촬영 영상물을 자동생성한다.When traveling through a designated area and section to a customer who wants to use a selfie or self-portrait video, the selfie camera recognizes each user's AR sticker and automatically generates a captured video including AR content assigned to each AR sticker.

또한, AR스티커를 정확하게 식별한 후 실제객체에 할당된 가상객체를 목표된 위치에 표시할 수 있다.In addition, after accurately identifying the AR sticker, the virtual object allocated to the real object can be displayed at the target position.

셀피 및 자가촬영 동영상을 이용하려는 고객에게 AR스티커를 제공하여 이용자가 정해진 구역 및 구간을 관광할때에 셀피 카메라는 이용자를 선별하여 구분하고, AR스티커를 착용한 이용자의 셀피 및 동영상을 시간별, 장소별, 테마별로 구분하여 제공할 수 있다.By providing AR stickers to customers who want to use self-portraits and self-portrait videos, Selfie Cameras select and classify users when users travel in a designated area and section, and take selfies and videos of users wearing AR stickers by time and place. It can be provided separately for each star and theme.

또한, AR 스티커를 착용한 이용자는 정해진 위치 및 스테이지를 무시하고 자유로이 셀피 카메라에 노출되어 최종적으로 셀피 및 동영상을 제공 받을 수 있다.In addition, a user wearing an AR sticker can be freely exposed to a selfie camera, ignoring a predetermined position and stage, and finally receiving a selfie and a video.

또한, 사용자가 위치한 실내촬영 스테이지를 배경으로 영상촬영을 진행하고, 사용자의 개인정보를 이용하여 영상 데이터를 편리하게 전송할 수 있다.In addition, it is possible to conveniently carry out video shooting in the background of the indoor shooting stage where the user is located, and conveniently transmit video data using the user's personal information.

도 1은 자가촬영사진지원 카메라 시스템에서 표시되는 가상객체를 도시한 도면
도 2는 사물인식기반으로 구현되는 증강현실을 나타낸 도면
도 2a은 공간인식기반으로 구현되는 증강현실을 나타낸 도면
도 3는 자가촬영사진지원 카메라 시스템에서 유사객체를 식별하기 위한 학습과정을 나타낸 순서도
도 3a는 자가촬영사진지원 카메라 시스템에서 유사객체를 식별하기 위한 추가인식영역을 선정하는 과정을 도시한 구성도
1 is a view showing a virtual object displayed in a self-portrait photographic support camera system.
2 is a view showing augmented reality implemented on the basis of object recognition
Figure 2a is a view showing augmented reality implemented on the basis of spatial recognition
Figure 3 is a flow chart showing a learning process for identifying similar objects in the self-portrait photographic support camera system
3A is a block diagram showing a process of selecting an additional recognition area for identifying similar objects in a self-portrait photographic support camera system.

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여, 본 발명의 실시예를 첨부한 도면을 참조하여 설명하기로 한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings in order to describe in detail that a person skilled in the art to which the present invention pertains can easily implement the technical spirit of the present invention.

도 1은 자가촬영사진지원 카메라 시스템에서 표시되는 가상객체를 도시한 도면이다.1 is a diagram showing a virtual object displayed in a self-portrait photographic support camera system.

도 1을 참조하면, 일반적인 시스템은 너무 많은 가상객체를 표시하므로 사용자의 시선을 가리게 되며 이러한 이유로 인해 사용자가 필요한 정보를 인지하기 어려운 문제가 발생한다.Referring to FIG. 1, since a general system displays too many virtual objects, the user's gaze is obscured, and for this reason, it is difficult for a user to recognize necessary information.

또한, 실체객체가 촬영영상 내에 모두 존재하거나 부분적으로 존재하더라도 이를 정확하게 식별하여 실제객체에 할당된 가상객체를 목표된 위치에 표시할 수 있는 기술이 요구되고 있다.In addition, there is a need for a technique capable of accurately identifying and displaying virtual objects assigned to real objects at a target location even if all of the real objects are present or partially present in the captured image.

또한, 외형이 비슷한 실제객체가 다수 존재할 경우 중복 인식되거나, 할당되지 않은 가상객체가 표시되어 혼동을 유발할 수 있으므로 유사객체를 식별하여 중복 인식을 방지할 수 있는 기술이 요구되고 있다.In addition, if a plurality of real objects having similar appearances are duplicated or unassigned virtual objects are displayed, confusion may be caused. Therefore, a technique for identifying similar objects and preventing duplicate recognition is required.

자가촬영사진지원 카메라 시스템은 증강현실 단말기와, 서버와, 복수의 센싱부를 포함하여 구성된다. 여기에서 복수의 센싱부 또는 서버는 실시예에 따라 시스템에 선택적으로 구비될 수 있는 구성이다. The self-photographed photo support camera system includes an augmented reality terminal, a server, and a plurality of sensing units. Here, a plurality of sensing units or servers may be selectively provided in the system according to an embodiment.

참고적으로, 증강현실 단말기의 연산능력과, 저장 공간이 충분한 경우, 시스템은 서버의 구성없이 증강현실 단말기 자체에서 서버의 역할을 수행하도록 구성될 수도 있을 것이다.For reference, if the computing power of the augmented reality terminal and the storage space are sufficient, the system may be configured to perform the role of the server in the augmented reality terminal itself without configuring the server.

또한, 본 실시예에서 증강현실 단말기는 증강현실안경 또는 모바일 단말기로 구성될 수 있다. 모바일 단말기는 휴대폰, 스마트폰, 스마트 패드 등과 같이 사용자가 휴대하면서 사용할 수 있는 기기를 총칭하는 것이며, 본 실시예에서는 스마트폰으로 구성된 모바일 단말기로 가정하고 설명하기로 한다.In addition, in this embodiment, the augmented reality terminal may be configured as an augmented reality glasses or mobile terminal. The mobile terminal is a generic term for devices that can be used while being carried by a user, such as a mobile phone, a smart phone, and a smart pad. In this embodiment, it will be assumed and described as a mobile terminal composed of a smart phone.

기본적으로 증강현실 단말기는 사용자 주위의 영상을 촬영하여 실제영상정보를 획득하는 영상 카메라가 내장되며 디스플레이에 3차원 가상영상을 표시함에 있어서, 현재위치정보와 실제영상정보에 대응하는 3차원 가상영상을 사용자의 시야범위 내에 표시한다.Basically, the augmented reality terminal has a built-in video camera that acquires real image information by capturing the image around the user, and displays a 3D virtual image corresponding to the current location information and real image information in displaying a 3D virtual image on the display. It is displayed within the user's field of view.

서버는 증강현실 단말기로부터 전송되는 현재위치정보와 실제영상정보에 대응되는 3차원 가상영상을 증강현실 단말기에 실시간으로 제공한다.The server provides the 3D virtual image corresponding to the current location information and real image information transmitted from the augmented reality terminal to the augmented reality terminal in real time.

증강현실 단말기는 기본적으로 위성위치정보를 현재위치정보로써 서버에 제공하도록 구성된다. 증강현실 단말기에 통신모듈이 포함되어 있을 경우, 위성위치정보 뿐만 아니라 주변의 와이파이(Wi-Fi) 중계기의 위치, 기지국 위치 등이 현재위치정보로써 서버에 추가로 제공될 수 있다.The augmented reality terminal is basically configured to provide satellite location information to the server as current location information. When the communication module is included in the augmented reality terminal, the location of a nearby Wi-Fi repeater and the location of a base station, as well as satellite location information, may be additionally provided to the server as current location information.

예를 들어 특히 실내에서는 위성위치정보를 수신할 수 없는 경우가 많으므로, 증강현실 단말기는, 검색된 적어도 하나 이상의 와이파이(Wi-Fi) 중계기의 신호세기를 추가로 파악하여 서버로 전달할 수 있다. 즉 실내에 위치한 와이파이(Wi-Fi) 중계기의 절대위치는 미리 서버에 저장되어 있으므로, 증강현실 단말기가 검색된 와이파이(Wi-Fi) 중계기의 고유번호와 신호세기를 추가로 제공할 경우, 서버에서는 증강현실 단말기의 상대적인 이동경로를 파악할 수 있다.For example, since satellite location information is often not received indoors, the augmented reality terminal may further detect and transmit signal strengths of at least one searched Wi-Fi repeater to a server. That is, since the absolute location of the Wi-Fi repeater located in the room is stored in advance on the server, if the augmented reality terminal additionally provides the unique number and signal strength of the searched Wi-Fi repeater, the server augments It is possible to grasp the relative movement path of the real terminal.

즉, 증강현실 단말기와 와이파이(Wi-Fi) 중계기 사이의 상대적인 거리를 신호세기로써 확인할 수 있으며 이웃하는 와이파이(Wi-Fi) 중계기와의 신호세기 변화를 토대로 이동방향을 산출할 수 있다.That is, the relative distance between the augmented reality terminal and the Wi-Fi repeater can be confirmed as the signal strength, and the moving direction can be calculated based on the change in the signal strength with the neighboring Wi-Fi repeater.

따라서 서버는 증강현실 단말기를 착용 또는 소지한 사용자의 현재위치정보와, 증강현실 단말기의 영상 카메라에서 촬영된 실제영상정보를 통해 각각의 실제객체에 할당된 가상객체를 파악하고, 이에 대한 정보를 증강현실 단말기로 실시간으로 전송한다.Therefore, the server identifies the virtual objects assigned to each real object through the current location information of the user who wears or possesses the augmented reality terminal and the actual image information captured by the video camera of the augmented reality terminal, and augments the information about it. Real-time transmission to a real terminal.

한편, 셀피 및 자가촬영 동영상을 이용하려는 고객에게 정해진 구역 및 구간을 관광할 때 셀피카메라가 개개인의 이용자 AR스티커를 인식하고, 각 AR스티커에 할당된 증강현실 컨텐츠를 서버로부터 제공받아 촬영 영상물을 자동생성할 수 있다.On the other hand, when the customer wants to use the selfie and self-portrait video, the selfie camera recognizes each user's AR sticker and automatically receives the augmented reality content assigned to each AR sticker from the server when sightseeing the designated areas and sections. Can be created.

도 2는 사물인식기반으로 구현되는 증강현실을 나타낸 도면이고, 도 2a는 공간인식기반으로 구현되는 증강현실을 나타낸 도면이다.2 is a view showing augmented reality implemented based on object recognition, and FIG. 2a is a view showing augmented reality implemented based on spatial recognition.

도 2 및 도 2a를 참조하면, 우선 사물인식기반으로 실제객체를 식별하는 방식은 공간 대비 사물의 크기가 작기 때문에 영상 기반 학습이 용이하다. 다만, 사물이 영상 내에 포함되어 있어야만 인식이 가능하고, 인식 방향과 거리에 제약이 발생할 수 있다. 사물은 위치가 변경될 수 있기 때문에 사전에 위치를 저장하는 것이 어려운 과제이다. 참고적으로 사물인식기반의 3차원 정합 좌표계(증강현실 정합 좌표계)는 각 사물당 1개가 생성된다.Referring to FIGS. 2 and 2A, first, a method of identifying a real object based on object recognition is easy because image size is small compared to space. However, recognition is possible only when the object is included in the image, and limitations may occur in the recognition direction and distance. It is a difficult task to store a location in advance because things can change location. For reference, one object-based three-dimensional matching coordinate system (augmented reality matching coordinate system) is generated for each object.

다음으로, 공간인식기반으로 실제객체의 위치를 식별하는 방식은 기본적으로 SLAM(Simultaneous Localization And Map-Building, Simultaneous Localization and Mapping) 기술을 적용한다. 슬램(SLAM)은 단말기(로봇)가 미지의 환경을 돌아다니면서 단말기(로봇)에 부착되어 있는 센서만으로 외부의 도움 없이 환경에 대한 정확한 3차원 지도를 작성하는 작업으로 자율주행을 위한 핵심기술로 정의될 수 있다.Next, the method of identifying the location of the real object based on spatial recognition basically applies the technology of Simulaneous Localization And Map-Building, Simultaneous Localization and Mapping (SLAM). Slam (SLAM) is defined as a core technology for autonomous driving by creating an accurate three-dimensional map of the environment without external assistance with only sensors attached to the terminal (robot) while the terminal (robot) moves around in an unknown environment. Can be.

즉, 공간인식기반 방식은 공간을 3차원적으로 인식하여 공간의 3차원 정합 좌표계를 생성하고 3차원 정합 좌표계를 기준으로 각각 미리 할당된 실제객체의 좌표에 각각의 가상객체를 표시하는 방식으로 정의될 수 있다.That is, the spatial recognition-based method is defined as a method of recognizing space in three dimensions to generate a three-dimensional coordinate system of space, and displaying each virtual object in the coordinates of a real object previously allocated based on the three-dimensional coordinate system. Can be.

따라서 사물이 영상 내에 포함되어 있지 않아도 사물(실제객체)에 가상객체를 증강할 수 있다. 다만, 초기 인식 지점으로부터 단말기가 이동되면 공간 추적 오차가 누적되어 증강현실 정보(가상객체)가 적절한 위치에 표출되기 어려울 수 있다. 참고적으로 공간기반의 3차원 정합 좌표계(증강현실 정합 좌표계)는 공간당 1개가 생성된다.Therefore, even if the object is not included in the image, the virtual object can be augmented with the object (real object). However, when the terminal is moved from the initial recognition point, the spatial tracking error may accumulate and it may be difficult for the augmented reality information (virtual object) to be displayed at an appropriate location. For reference, one space-based three-dimensional registration coordinate system (augmented reality matching coordinate system) is generated per space.

따라서 본 발명의 시스템은, 실체객체가 촬영영상 내에 모두 존재하거나, 모두 존재하지 않거나, 부분적으로 존재하더라도 이를 정확하게 식별하여 실제객체에 할당된 가상객체를 목표된 위치에 표시할 수 있도록, 공간 인식 및 사물 인식을 동시에 적용하여 가상객체의 위치를 정확한 위치에 표시할 수 있도록 구성된다.Therefore, the system of the present invention can accurately identify and display virtual objects assigned to real objects at a target location even if all or all of them exist in the captured image or partially exist. It is configured to apply the object recognition at the same time to display the location of the virtual object at the correct location.

즉, 증강현실 단말기는, 공간을 3차원적으로 인식하여 공간기반의 3차원 정합 좌표계를 생성하고 공간기반의 3차원 정합 좌표계를 기준으로 각각 미리 할당된 실제객체의 좌표에 각각의 가상객체를 표시하되, 실제영상정보의 실제객체가 사물인식기반으로 영상 식별될 때마다 실제객체의 좌표를 파악한 후 사물인식기반의 3차원 정합 좌표계를 추가로 생성하고, 사물인식기반의 3차원 정합 좌표계를 기준으로 공간기반의 3차원 정합 좌표계를 갱신한다.That is, the augmented reality terminal recognizes the space in three dimensions to generate a space-based three-dimensional matched coordinate system and displays each virtual object in the coordinates of a real object previously allocated based on the space-based three-dimensional matched coordinate system. However, whenever a real object of real image information is image-identified based on object recognition, the coordinates of the real object are grasped, and then a 3D match coordinate system based on object recognition is additionally generated, based on a 3D match coordinate system based on object recognition. Update the space-based 3D registration coordinate system.

도 3은 자가촬영사진지원 카메라 시스템에서 유사객체를 식별하기 위한 학습과정을 나타낸 순서도이고, 도 3a는 자가촬영사진지원 카메라 시스템에서 유사객체를 식별하기 위한 추가인식영역을 선정하는 과정을 도시한 구성도이다.3 is a flow chart showing a learning process for identifying similar objects in the self-photographed photo support camera system, and FIG. 3A is a configuration showing a process of selecting an additional recognition area for identifying similar objects in the self-photographed photo support camera system It is.

도 3 및 도 3a를 참조하면, 서버는 실제영상정보의 실제객체를 식별하고 식별된 실제객체에 각각 할당된 3차원 가상영상의 가상객체를 증강현실 단말기에 제공하도록 동작한다.3 and 3A, the server operates to identify real objects of real image information and to provide augmented reality terminals with virtual objects of 3D virtual images respectively assigned to the identified real objects.

즉, 서버는 실제영상정보에 존재하는 복수의 실제객체 중에서 소정의 영상 유사도 값(d) 이상을 갖는 실제객체들은 각각의 실제영상정보를 차분하여 추가인식영역을 선정하고, 추가인식영역의 영상 차이점을 토대로 고유 식별자를 실제객체에 각각 부여한다.That is, the server selects an additional recognition region by differentiating each actual image information among real objects having a predetermined image similarity value (d) or more among a plurality of real objects present in the real image information, and the difference in the images of the additional recognition regions On the basis of, a unique identifier is assigned to each real object.

예를 들면 추가인식영역이 서로 다른 문자나, 숫자가 표시되어 있을 경우 서버는 추가인식영역의 차이점을 토대로 각각의 실제객체에 고유 식별자를 부여한 후 이를 데이터베이스화하여 저장하고, 고유 식별자에 할당된 가상객체를 추가 증강현실 단말기로 전송할 수 있다.For example, if the additional recognition area has different characters or numbers, the server assigns a unique identifier to each real object based on the difference in the additional recognition area, stores it in a database, and stores the virtual identifier assigned to the unique identifier. The object may be transmitted to an additional augmented reality terminal.

즉, 복수의 실제객체가 소정의 영상 유사도 값(d) 이상을 가질 경우, 영상을 추상화하고 영상을 차분화하여 추가인식영역(추가 학습영역)을 설정한 후, 추가인식영역의 차이점을 식별하여 각각의 고유 식별자를 부여하는 것이다.That is, when a plurality of real objects have a predetermined image similarity value (d) or higher, abstract the image and differentiate the image to set an additional recognition area (additional learning area), and then identify differences in the additional recognition area It is to give each unique identifier.

이와 같은 방식을 통해 사용자에 소지하고 있는 각각의 AR 스티커를 식별할 수 있다.Through this method, it is possible to identify each AR sticker possessed by the user.

자가촬영사진지원 카메라 시스템은 M2M(machine-to-machine)통신 또는 IoT(Internet of Things)이라고 불리는 통신 환경 내지 통신 시스템을 이용하여 데이터를 상호 간에 교환할 수 있도록 구성된다.The self-photographed photo support camera system is configured to exchange data with each other using a communication environment or communication system called M2M (machine-to-machine) communication or Internet of Things (IoT).

자가촬영사진지원 카메라 시스템은, 사용자가 특정 QR 코드 또는 마크가 인쇄된 AR(augmented reality, AR)스티커를 부착하고 있을 경우, 영상 촬영부가 해당 코드 또는 마크를 인식한 후, 인식된 값에 따라 허가된 사람으로 인식하여, AR 스티커를 착용한 사용자는 정해진 위치 및 스테이지를 무시하고 자유로이 영상 촬영부의 셀피 카메라에 의해 촬영될 수 있다.Self-photographed photo support camera system, if a user attaches an AR (augmented reality, AR) sticker with a specific QR code or mark, the image capture unit recognizes the code or mark, and then permits it according to the recognized value Recognized as a person, the user wearing the AR sticker can be freely taken by the selfie camera of the image capturing unit ignoring a predetermined position and stage.

즉, 셀피 및 자가촬영 동영상을 이용하려는 고객에게 AR스티커를 제공하여 이용자가 정해진 구역 및 구간을 관광할때에 셀피 카메라는 이용자를 선별하여 구분하고, AR스티커를 착용한 이용자의 셀피 및 동영상을 시간별, 장소별, 테마별로 구분하여 제공할 수 있다.In other words, by providing AR stickers to customers who want to use self-portraits and self-portrait videos, the selfie camera selects and sorts users when they travel the designated areas and sections, and separates selfies and videos of users wearing AR stickers by time. , It can be provided separately by place and theme.

또한, AR 스티커를 착용한 이용자는 정해진 위치 및 스테이지를 무시하고 자유로이 셀피 카메라에 노출되어 최종적으로 셀피 및 동영상을 제공 받을 수 있다.In addition, a user wearing an AR sticker can be freely exposed to a selfie camera, ignoring a predetermined position and stage, and finally receiving a selfie and a video.

센싱부는 복수의 실내촬영 스테이지(STAGE)에 각각 배치되며, RF 태깅방식을 이용하여 사용자의 휴대용 단말기로부터 개인정보를 수신한다. 또한, 센싱부는 사진촬영을 위한 결제를 진행할 수 있도록 구성된다. 센싱부(100)는 사용자가 현재의 실내촬영 스테이지(STAGE)를 배경으로 자가촬영(selfie)을 진행할 수 있도록 위치정보를 전송하는 고정형 단말기로 정의된다. The sensing units are respectively disposed on a plurality of indoor shooting stages (STAGE), and receive personal information from a user's portable terminal using an RF tagging method. In addition, the sensing unit is configured to allow payment for photography. The sensing unit 100 is defined as a fixed terminal that transmits location information so that a user can perform selfie in the background of the current indoor shooting stage STAGE.

즉, 본 실시예에서 실내촬영 스테이지(STAGE)는 전시회, 박람회, 테마 공간을 배경으로 사진을 촬영할 수 있도록 지정된 사진촬영장소를 의미하며, 각각의 실내촬영 스테이지(STAGE)에는 센싱부가 설치되어 있다. 예를 들면 복수의 부스가 설치된 박람회 또는 전시회에서 각 부스가 하나의 실내촬영 스테이지(STAGE)로 정의될 수 있다.That is, in this embodiment, the indoor shooting stage (STAGE) refers to a designated photographing location so as to take photos against an exhibition, fair, or theme space, and a sensing unit is installed in each indoor shooting stage (STAGE). For example, in an exhibition or exhibition where a plurality of booths are installed, each booth may be defined as one indoor photography stage (STAGE).

복수의 실내촬영 스테이지(STAGE)의 바닥면에는 압력센서가 배치되어 있는데, 센싱부는 압력센서의 감지결과를 바탕으로 사용자의 위치를 감지한 후, 해당 정보를 영상 촬영부로 전송할 수 있다. 따라서 영상 촬영부는 사용자가 위치한 지점을 중심으로 영상촬영을 진행할 수 있다.A pressure sensor is disposed on the bottom surface of the plurality of indoor shooting stages STAGE, and the sensing unit may detect the user's location based on the detection result of the pressure sensor and transmit the information to the image capturing unit. Therefore, the image capturing unit may proceed to take the image centering on the location where the user is located.

사용자가 전화번호, 이메일 주소 및 소셜 네트워크 서비스(Social Network Service, SNS) 계정 중 적어도 어느 하나의 개인정보를 센싱부에 입력하고, 결제를 진행할 경우, 센싱부는 영상 촬영부를 제어하여 미리 설정된 배경으로 촬영예정영상을 실시간으로 표시하면서 사용자가 자가촬영사진을 촬영할 수 있도록 지원한다. When a user inputs at least one personal information of a phone number, an email address, and a social network service (SNS) account into the sensing unit and performs payment, the sensing unit controls the video recording unit to shoot with a preset background It supports users to take self-portrait photos while displaying the scheduled video in real time.

이때, 영상 촬영부에서 촬영된 영상은 데이터 서버로 전송되며, 데이터 서버는 촬영된 영상을 입력된 개인정보를 이용하여 전송한다. 즉, 데이터 서버는 전화번호, 이메일 주소, 소셜 네트워크 서비스 계정을 이용하여 촬영된 사진을 전송한다.At this time, the image captured by the image capturing unit is transmitted to the data server, and the data server transmits the captured image using the input personal information. That is, the data server transmits a photograph taken using a phone number, an email address, and a social network service account.

영상 촬영부는 각각의 실내촬영 스테이지(STAGE)를 배경으로 사진을 촬영할 수 있는 위치에 설치된다.The image capturing unit is installed at a position where a picture can be taken against the background of each indoor shooting stage (STAGE).

예를 들면, 전시장 건물의 천장 부위에 복수의 영상 촬영부가 설치될 수 있으며, 각 영상 촬영부는 복수의 실내촬영 스테이지(STAGE)를 담당하여 촬영할 수 있도록 구성된다. 이때, 영상 촬영부는 천장 부위에 설치된 조명과 연동되어 동작할 수 있다. 즉, 영상 촬영부는 촬영영역의 밝기를 판단한 후, 천장 부위에 설치된 조명의 밝기, 조명의 조사각도 등을 제어하여 촬영영역의 밝기를 자동조절 할 수 있다.For example, a plurality of image photographing units may be installed on the ceiling portion of the exhibition hall building, and each image photographing unit is configured to be in charge of a plurality of indoor shooting stages STAGE. At this time, the image capturing unit may operate in conjunction with the lighting installed on the ceiling. That is, after determining the brightness of the photographing area, the image photographing unit may automatically adjust the brightness of the photographing area by controlling the brightness of the light installed on the ceiling portion and the illumination angle.

또한 영상 촬영부는 영상객체인식을 통해 촬영영역에 장애물이 있는 것으로 판단될 경우, 사용자의 신체가 모두 촬영될 수 있도록 자동 이동할 수 있다. 즉 영상 촬영부가 전시장 건물의 천장 부위에 설치될 때, 복수의 영상 촬영부가 각각 자동 이동할 수 있는 이동용 레일이 설치되는 것이 바람직하며, 영상 촬영부는 이동용 구동부가 장착되어 이동용 레일을 따라 소정의 위치까지 이동할 수 있다.In addition, when it is determined that there is an obstacle in the photographing area through the image object chain, the image photographing unit may automatically move the user's body to be photographed. That is, when the image capturing unit is installed on the ceiling of the exhibition hall building, it is preferable that a plurality of image capturing units are provided with movable rails that can be automatically moved, and the image capturing unit is equipped with a movable driving unit to move to a predetermined position along the movable rail. Can be.

센싱부의 제어에 따라 영상 촬영부의 촬영방향 및 줌 배율이 조절되며, 이러한 촬영예정영상은 실시간으로 센싱부의 디스플레이부 또는 휴대용 단말기에 표시되어, 사용자가 자가촬영사진을 용이하게 촬영할 수 있도록 지원한다.The shooting direction and the zoom magnification of the image capturing unit are controlled according to the control of the sensing unit, and these scheduled images are displayed on the display unit or portable terminal of the sensing unit in real time, so that the user can easily take a self-portrait picture.

즉, 영상 촬영부는 복수의 실내촬영 스테이지(STAGE) 중 선택된 어느 하나의 실내촬영 스테이지(STAGE)를 배경으로 영상을 촬영하는데, 센싱부로부터 전송된 위치정보 및 사용자의 개인정보를 토대로 영상을 촬영한다. That is, the image photographing unit photographs an image in the background of any one of the indoor photographing stages STAGE selected from a plurality of indoor photographing stages STAGE, and photographs the image based on the location information transmitted from the sensing unit and the user's personal information. .

여기에서 영상은 동영상 및 정지영상을 모두 포함하므로, 영상 촬영부는 사용자의 선택에 의해 동영상 및 정지영상(사진)을 선택적으로 촬영할 수 있다.Here, since the image includes both a moving image and a still image, the image capturing unit may selectively take the moving image and the still image (photo) at the user's option.

실시예에 따라 하나의 영상 촬영부가 하나의 실내촬영 스테이지(STAGE)를 담당하도록 구성될 수 있고, 촬영방향 및 줌 배율을 조절함으로써 하나의 영상 촬영부가 미리 할당된 복수의 실내촬영 스테이지(STAGE)를 각각 담당하도록 구성될 수도 있을 것이다.According to an embodiment, one image photographing unit may be configured to be in charge of one indoor photographing stage STAGE, and by adjusting the photographing direction and the zoom magnification, one image photographing unit may include a plurality of pre-allocated indoor photographing stages STAGE. It may be configured to handle each.

영상 촬영는 PTZ 카메라가 사용될 수 있는데, PTZ 카메라는 모터를 이용하여 좌우/상하 회전(PAN), 방향기울기(TILT), 줌(ZOOM) 조정이 가능한 카메라를 통칭한다. 따라서 센싱부의 제어에 의해 PTZ 카메라를 특정 각도 및 방향으로 회전시킬 수 있으므로, 촬영할 수 있는 영역을 조절할 수 있다.A PTZ camera may be used for video shooting, and the PTZ camera is a camera capable of adjusting left / right / up / down rotation (PAN), tilt (TILT), and zoom (ZOOM) using a motor. Therefore, the PTZ camera can be rotated in a specific angle and direction under the control of the sensing unit, so that it is possible to adjust the area where the image can be taken.

영상 촬영부는 야간 식별을 위한 감성 엘이디(LED)를 장착하고 야간 자가 촬영이 가능하도록 보조 투광등을 설치하되, 서치헤드라이트를 실내촬영 스테이지(STAGE)로 비추어 영상 획득을 용이하게 한다.The image capture unit is equipped with an emotional LED (LED) for nighttime identification, and an auxiliary floodlight is installed to enable self-photography at night, but the search headlight is illuminated by the indoor shooting stage (STAGE) to facilitate image acquisition.

영상 촬영부는 기본적으로 메가픽셀급 이상의 해상도를 지닌 카메라를 선정하고 근,중,원거리 형태로 나누어 구분하고, 카메라는 IP네트워크 카메라 또는 DSLR 디지털 카메라(줌 렌즈 장착형)를 사용하며, 사진취득 방법을 여러장의 사진을 거리별로 자동 촬영하는 줌 렌즈 구동 방법과 전체배경이 나오는 고해상도의 한 장의 사진을 취득하여 촬영된 사진을 자동으로 화면 비중을 늘려서 여러 거리별 사진이 나올 수 있게 하는 방법으로 나누어 운영한다.The video recording unit basically selects a camera with a mega-pixel or higher resolution, and divides it into near, medium, and long-distance types, and the camera uses an IP network camera or a DSLR digital camera (zoom lens-mounted type). It is operated by dividing it into a method of driving a zoom lens that automatically takes a picture of each picture by distance, and a method of acquiring a high-resolution picture of the entire background and automatically increasing the proportion of the picture to display pictures by distance.

또한 영상 촬영부는 무선 메쉬 네트워크 방식을 이용하여 데이터를 전송할 수 있다.Also, the image capturing unit may transmit data using a wireless mesh network method.

즉, 복수의 영상 촬영부가 구비될 경우, 각 영상 촬영부가 데이터를 서로 무선중계함으로써, 센싱부, 휴대용 단말기 및 데이터 서버와의 데이터 교환 한계거리를 연장할 수 있을 것이다.That is, when a plurality of image photographing units are provided, each image photographing unit wirelessly relays data to each other, thereby extending the data exchange limit distance between the sensing unit, the portable terminal, and the data server.

참고적으로, 영상 촬영부에는 90도 각도 차이로 마이크가 배치되어 총 4개의 마이크가 각 방향에서의 소리를 수집할 수 있도록 구성될 수 있다. 이때 4개의 마이크 사이에는 격벽이 설치되어 소리의 진원지를 파악하는데 보조적인 도움을 줄 수 있다. 마이크는 지향성 마이크가 이용되는 것이 바람직하다. 이와 같이 지향성 마이크가 구비될 경우, 영상 촬영부는 사용자의 음성을 감지하여 이동방향을 미리 감지할 수 있다. For reference, a microphone is disposed at a 90-degree angle difference in the image capturing unit so that a total of four microphones can be configured to collect sound in each direction. At this time, a partition wall is installed between the four microphones to assist in determining the source of the sound. It is preferable that a directional microphone is used as the microphone. When a directional microphone is provided as described above, the image capturing unit may detect a user's voice and detect a moving direction in advance.

데이터 서버는 영상 촬영부로부터 전송된 영상 데이터 및 사용자의 개인정보를 데이터베이스화하여 저장하고, 사용자가 미리 입력한 전화번호, 이메일 주소, 소셜 네트워크 서비스 계정 등과 같은 개인정보를 이용하여 영상 데이터를 사용자에게 전송한다. 영상 데이터는 전자앨범 형태로 제작되어 사용자에게 전송될 수 있다.The data server stores the image data transmitted from the image capturing unit and the user's personal information as a database, and uses the personal information such as a phone number, email address, and social network service account previously input by the user to send the image data to the user. send. The image data may be produced in the form of an electronic album and transmitted to a user.

따라서 사용자는 각각의 실내촬영 스테이지(STAGE)에서 자가촬영을 진행한 후, 자신이 미리 입력한 전화번호, 이메일 주소, 소셜 네트워크 서비스 계정으로 촬영된 영상을 수신 받을 수 있다.Therefore, the user can take a self-portrait at each indoor shooting stage (STAGE), and receive a video captured by a phone number, email address, and social network service account that he / she has previously input.

한편, 센싱부는 사용자의 휴대용 단말기로부터 무선통신방식을 통해 전화번호, 이메일 주소, 소셜 네트워크 서비스 계정 등과 같은 사용자의 개인정보를 수신할 수 있다.Meanwhile, the sensing unit may receive the user's personal information, such as a telephone number, an email address, and a social network service account, through a wireless communication method from the user's portable terminal.

이때, 센싱부와 휴대용 단말기는 블루투스, NFC(Near Field Communication) 등과 같은 무선통신방식을 통해 데이터를 교환할 수 있도록 구성되므로, 사용자가 단순히 휴대용 단말기를 센싱부에 태깅하는 방식을 통해 개인정보를 전달할 수 있다.At this time, since the sensing unit and the portable terminal are configured to exchange data through a wireless communication method such as Bluetooth or NFC (Near Field Communication), the user simply transmits personal information through a method of tagging the portable terminal to the sensing unit. Can be.

또한, 사용자가 센싱부에 휴대용 단말기를 태깅할 경우, 사진촬영 애플리케이션을 다운로드할 수 있는 링크가 표시된다. In addition, when the user tags the portable terminal in the sensing unit, a link to download a photo shooting application is displayed.

사용자가 사진촬영 애플리케이션을 휴대용 단말기에 설치할 경우, 사용자는 센싱부 뿐만 아니라 휴대용 단말기에 설치된 사진촬영 애플리케이션을 이용하여 영상 촬영부를 일정시간동안 제어할 수 있다. When a user installs a photographing application on a portable terminal, the user can control the image photographing unit for a predetermined time using a photographing application installed on the portable terminal as well as the sensing unit.

즉, 휴대용 단말기는 촬영예정영상을 실시간으로 표시할 수 있고, 특정시점에 촬영을 진행하도록 지시하는 제어신호를 영상 촬영부에 전송할 수 있다. 또한, 휴대용 단말기의 사진촬영 애플리케이션을 통해 영상을 촬영하기 위한 금액을 결제할 수 있도록 구성될 수 있다.That is, the portable terminal can display a scheduled image in real time, and transmit a control signal instructing to proceed with the photographing at a specific point in time. In addition, it may be configured to pay an amount for taking an image through a photo shooting application of the portable terminal.

상술한 바와 같이, 센싱부가 사용자의 휴대용 단말기로부터 무선통신방식을 통해 사용자의 개인정보를 수신할 경우, 센싱부 또는 영상 촬영부는 촬영예정영상을 실시간으로 휴대용 단말기로 전송하도록 구성될 수 있다.As described above, when the sensing unit receives the user's personal information through the wireless communication method from the user's portable terminal, the sensing unit or the image capturing unit may be configured to transmit the scheduled image to the portable terminal in real time.

과거 사진자료를 추가 요청 할 수 있다. 즉 사용자가 휴대용 단말기를 통해 현재의 장소에서 과거에 촬영한 사진을 요청한 경우, 해당 사진이 휴대용 단말기에 표시될 수 있다. 또한 본인의 손으로 조작하여 얻기 힘든 자가촬영사진을 근거리, 중/원거리에 기 설치되어 있는 영상 촬영부를 실시간 구동하여 원하는 사진을 얻을 수 있다.You can request additional photos of the past. That is, when a user requests a picture taken in the past at the current place through the portable terminal, the corresponding picture may be displayed on the portable terminal. In addition, it is possible to obtain a desired picture by driving a self-portrait picture, which is difficult to obtain by manipulating it with one's own hands, in real-time by operating a video recording unit pre-installed at a short distance, medium distance, or long distance.

본 발명의 실시예에 따른 자가촬영사진지원 카메라 시스템은,Self-portrait photo support camera system according to an embodiment of the present invention,

셀피 및 자가촬영 동영상을 이용하려는 고객에게 정해진 구역 및 구간을 관광할 때 셀피카메라가 개개인의 이용자 AR스티커를 인식하고, 각 AR스티커에 할당된 증강현실 컨텐츠를 포함하여 촬영 영상물을 자동생성한다.When traveling through a designated area and section to a customer who wants to use a selfie or self-portrait video, the selfie camera recognizes each user's AR sticker and automatically generates a captured video including AR content assigned to each AR sticker.

또한, AR스티커를 정확하게 식별한 후 실제객체에 할당된 가상객체를 목표된 위치에 표시할 수 있다.In addition, after accurately identifying the AR sticker, the virtual object allocated to the real object can be displayed at the target position.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.As such, those skilled in the art to which the present invention pertains will appreciate that the present invention may be implemented in other specific forms without changing the essential features of the technical concept. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. The scope of the present invention is indicated by the following claims rather than the above detailed description, and it should be interpreted that all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof are included in the scope of the present invention. do.

Claims (4)

사용자 주위의 영상을 촬영하여 실제영상정보를 획득하는 영상 카메라가 내장되며 디스플레이에 3차원 가상영상을 표시함에 있어서, 현재위치정보와 상기 실제영상정보에 대응하는 상기 3차원 가상영상을 사용자의 시야범위 내에 표시하는 증강현실 단말기; 및
상기 증강현실 단말기로부터 전송되는 상기 현재위치정보와 상기 실제영상정보에 대응되는 상기 3차원 가상영상을 상기 증강현실 단말기에 실시간으로 제공하는 서버;를 포함하고,
셀피 및 자가촬영 동영상을 이용하려는 고객에게 정해진 구역 및 구간을 관광할 때 셀피카메라가 개개인의 이용자 AR스티커를 인식하고, 각 AR스티커에 할당된 증강현실 컨텐츠를 상기 서버로부터 제공받아 촬영 영상물을 자동생성하는 것을 특징으로 하는 자가촬영사진지원 카메라 시스템.
An image camera that captures images around the user to obtain real image information is built in, and when displaying a 3D virtual image on a display, the user's field of view of the 3D virtual image corresponding to the current location information and the real image information is displayed. Augmented reality terminal displayed within; And
It includes; a server that provides the 3D virtual image corresponding to the current location information and the real image information transmitted from the augmented reality terminal to the augmented reality terminal in real time;
Self-portraits and self-portraits are used by self-portrait cameras. When taking a tour of a designated area and section, the selfie camera recognizes the individual user's AR stickers and automatically generates augmented video content by receiving the augmented reality content assigned to each AR sticker from the server. Self-portrait photo support camera system, characterized in that.
제1항에 있어서,
상기 서버는 상기 실제영상정보의 실제객체를 영상 식별하고 식별된 실제객체에 각각 할당된 상기 3차원 가상영상의 가상객체를 상기 증강현실 단말기에 제공함에 있어서,
상기 증강현실 단말기는, 공간을 3차원적으로 인식하여 공간기반의 3차원 정합 좌표계를 생성하고 상기 공간기반의 3차원 정합 좌표계를 기준으로 각각 미리 할당된 실제객체의 좌표에 각각의 가상객체를 표시하되, 상기 실제영상정보의 실제객체가 사물인식기반으로 영상 식별될 때마다 상기 실제객체의 좌표를 다시 파악한 후, 파악된 상기 실제객체의 좌표를 갱신하고, 갱신된 상기 실제객체의 좌표에 미리 할당된 가상객체를 표시하는 것을 특징으로 하는 자가촬영사진지원 카메라 시스템.
According to claim 1,
In the server, the real object of the real image information is image-identified, and the virtual object of the 3D virtual image allocated to each of the identified real objects is provided to the augmented reality terminal.
The augmented reality terminal recognizes space in three dimensions to generate a space-based three-dimensional matched coordinate system and displays each virtual object in the coordinates of a real object previously allocated based on the space-based three-dimensional matched coordinate system. However, whenever the real object of the real image information is image-identified based on object recognition, the coordinates of the real object are re-recognized, and then the coordinates of the identified real object are updated and allocated to the updated coordinates of the real object in advance. Self-portrait photo support camera system, characterized by displaying the virtual object.
제2항에 있어서,
상기 서버는,
상기 실제영상정보에 존재하는 복수의 실제객체 중에서 소정의 영상 유사도 값 이상을 갖는 실제객체들은 각각의 실제영상정보를 차분하여 추가인식영역을 선정하고, 추가인식영역의 영상 차이점을 토대로 고유 식별자를 실제객체에 각각 부여하고,
추가인식영역의 영상 차이점을 토대로 각각의 실제객체에 부여된 고유 식별자와, 각 실제객체의 현재위치정보를 모두 고려하여 각각의 실제객체를 식별하는 것을 특징으로 하는 자가촬영사진지원 카메라 시스템.
According to claim 2,
The server,
Among the plurality of real objects present in the real image information, real objects having a predetermined image similarity value or higher select different recognition regions by differentiating the respective real image information, and actualize a unique identifier based on the image difference of the additional recognition regions. To each object,
Self-photographed photo support camera system characterized by identifying each real object in consideration of both the unique identifier assigned to each real object and the current location information of each real object based on the difference in the image of the additional recognition area.
제2항에 있어서,
상기 서버는,
상기 실제영상정보에 존재하는 복수의 실제객체 중에서 소정의 영상 유사도 값 이상을 갖는 실제객체들은 각각의 실제영상정보를 차분하여 추가인식영역을 선정하고, 추가인식영역의 영상 차이점을 토대로 고유 식별자를 실제객체에 각각 부여하고,
각 실제객체의 현재위치정보를 토대로 추가인식영역의 후보위치를 결정하는 것을 특징으로 하는 자가촬영사진지원 카메라 시스템.
According to claim 2,
The server,
Among the plurality of real objects present in the real image information, real objects having a predetermined image similarity value or higher select different recognition regions by differentiating the respective real image information, and actualize a unique identifier based on the image difference of the additional recognition regions. To each object,
Self-photographed photo support camera system, characterized in that the candidate position of the additional recognition area is determined based on the current position information of each real object.
KR1020180130497A 2018-10-30 2018-10-30 Selfie support Camera System Using Augmented Reality KR20200048414A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180130497A KR20200048414A (en) 2018-10-30 2018-10-30 Selfie support Camera System Using Augmented Reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180130497A KR20200048414A (en) 2018-10-30 2018-10-30 Selfie support Camera System Using Augmented Reality

Publications (1)

Publication Number Publication Date
KR20200048414A true KR20200048414A (en) 2020-05-08

Family

ID=70677334

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180130497A KR20200048414A (en) 2018-10-30 2018-10-30 Selfie support Camera System Using Augmented Reality

Country Status (1)

Country Link
KR (1) KR20200048414A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115016688A (en) * 2022-06-28 2022-09-06 维沃移动通信有限公司 Virtual information display method and device and electronic equipment
WO2024090970A1 (en) * 2022-10-28 2024-05-02 삼성전자 주식회사 Electronic device using external device in metaverse, and control method therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115016688A (en) * 2022-06-28 2022-09-06 维沃移动通信有限公司 Virtual information display method and device and electronic equipment
WO2024090970A1 (en) * 2022-10-28 2024-05-02 삼성전자 주식회사 Electronic device using external device in metaverse, and control method therefor

Similar Documents

Publication Publication Date Title
CN111462311B (en) Panorama generation method and device and storage medium
US10868977B2 (en) Information processing apparatus, information processing method, and program capable of adaptively displaying a video corresponding to sensed three-dimensional information
CN108921894A (en) Object positioning method, device, equipment and computer readable storage medium
US11657085B1 (en) Optical devices and apparatuses for capturing, structuring, and using interlinked multi-directional still pictures and/or multi-directional motion pictures
JP7245363B2 (en) Positioning method and device, electronic equipment and storage medium
JP2011203984A (en) Navigation device, navigation image generation method, and program
KR20130112578A (en) Appratus and method for providing augmented reality information based on user
US20180077356A1 (en) System and method for remotely assisted camera orientation
KR20200048414A (en) Selfie support Camera System Using Augmented Reality
US20180082119A1 (en) System and method for remotely assisted user-orientation
KR101839456B1 (en) Outdoor-type selfie support Camera System Baseon Internet Of Thing
CN113532444B (en) Navigation path processing method and device, electronic equipment and storage medium
JP6635573B2 (en) Image processing system, image processing method, and program
KR101841993B1 (en) Indoor-type selfie support Camera System Baseon Internet Of Thing
CN107036602B (en) Indoor autonomous navigation system and method of hybrid unmanned aerial vehicle based on environment information code
WO2017149440A1 (en) Method, apparatus and computer program product for navigation in an indoor space
CN111242107B (en) Method and electronic device for setting virtual object in space
US10999495B1 (en) Internet of things-based indoor selfie-supporting camera system
CN112581630A (en) User interaction method and system
KR102078286B1 (en) Selfie support Camera System using electronic geographic information
CN112788229A (en) Indoor self-shooting support camera system based on Internet of things
CN114071003B (en) Shooting method and system based on optical communication device
KR20190023213A (en) Selfie support Camera System Using AR sticker
CN112055034A (en) Interaction method and system based on optical communication device
CN112055033B (en) Interaction method and system based on optical communication device